O perspectivă juridică asupra dezbaterilor legate de ChatGPT
Numeroși lideri din domeniul tehnologiei și oficiali guvernamentali din lume și-au exprimat îngrijorarea în ultima vreme cu privire la dezvoltarea platformelor de inteligență artificială, mai exact față de ChatGPT, dar și în România ar trebui dezbătute aceste îngrijorări, iar avocații trebuie să se implice în aceste discuții, ținând cont de natura profesiei lor, noua tehnologie având efecte asupra companiilor și vieții oamenilor, consideră Ioana Chiper Zah, Attorney Associate la Hațegan Attorneys.
Chiar și Sam Altman, CEO-ul OpenAI, a spus că gândurile cu privire la de inteligența artificială îi perturbă somnul. „Ceea ce mă face să nu pot dormi este ideea ipotetică că am făcut deja ceva foarte rău prin lansarea ChatGPT”, i-a spus Altman lui Satyan Gajwani, vicepreședintele Times Internet, la un eveniment organizat în 8 iunie de Economic Times. Întrebat dacă IA ar trebui să fie reglementată în mod similar cu energia atomică, Altman a spus că trebuie să existe un sistem mai bun de verificare a procesului.
Avocata Ioana Chiper Zah consideră că utilizarea tehnologiilor IA în activitățile profesionale sau comerciale are implicații legale semnificative, cum ar fi protecția datelor, responsabilitatea legală și respectarea standardelor de etică, iar acestea ar trebui dezbătute mai mult și în România, atât de specialiștii în IT și tehnologii avansate, cât și la nivel de comunitate, autorități, mediul de business, avocați, consultanți.
În prezent, statele ori companiile private adoptă abordări diferite în fața acestor aspecte, în funcție de principiile și valorile după care se ghidează.
Progresele tehnologice în domeniul inteligenței artificiale (IA) au dus la dezvoltarea unor instrumente avansate de comunicare, cum este și ChatGPT (Generative Pre-trained Transformer). Apariția ChatGPT a generat interes și controverse la nivel global, determinând reacții diferite din partea statelor ori a companiilor private în ceea ce privește utilizarea acestei tehnologii revoluționare.
ChatGPT este un sistem de inteligență artificială bazat pe rețele neurale, capabil să genereze răspunsuri coerente și relevante în conversații cu utilizatorii, potrivit descrierii acestui program[1]. Cu toate acestea, o astfel de utilizare are implicații juridice și incumbă abordări diferite din partea țărilor ori a companiilor private din întreaga lume, susține reprezentanta Hațegan Attorneys.
În opinia sa, unul dintre aspectele cruciale în utilizarea ChatGPT în activitățile profesionale sau comerciale este protecția datelor și confidențialitatea informațiilor. Pentru a funcționa eficient, ChatGPT trebuie să aibă acces la anumite date, printre altele și la conversațiile anterioare sau informații despre utilizatori. În acest sens, pentru ca funcționarea programului să fie cât mai conformă,
acesta ar trebui să poată asigura protecția datelor pe care le prelucrează, precum și respectarea normele și legilor privind protecția datelor personale din fiecare țară.
Modelul lingvistic ChatGPT stochează informațiile care îi sunt furnizate de către utilizatorii săi pentru funcția de învățarea continuă cu care creatorii săi l-au înzestrat. În acest sens, are posibilitatea să divulge informații sensibile cu care intră în contact, către alți utilizatori ori în terțe contexte nepotrivite. Riscul ca datele personale ori confidențiale cu care intră în contact să fie dezvăluite contrar dispozițiilor legale aplicabile în funcție de zona geografică în cauză este prezent în fiecare domeniu în care acest sistem ar putea fi folosit, indiferent că este guvernamental, comercial ori juridic. Din acest punct de vedere, utilizarea sistemului IA ar trebui să fie în concordanță cu fiecare normă de drept aplicabilă din fiecare țară.( ex. GDPR în Europa, CCPA în California, etc.,)
Ioana Chiper Zah arată că un alt aspect important este responsabilitatea legală în cazul în care utilizarea ChatGPT cauzează daune sau generează consecințe negative. Această situație ridică întrebări legate de responsabilitatea juridică în cazul generării de prejudicii asupra companiei în care activează utilizatorul, prin utilizarea programului AI. În activitatea lor curentă, nenumărați angajați din diverse domenii, au contact direct cu o multitudine de informații care constituie secrete comerciale valoroase pentru angajatorii lor, fără ca ei să conștientizeze. Divulgarea unor asemenea informații către un sistem precum ChatGPT, chiar și cu cele mai inofensive intenții, poate genera prejudicii colosale în sarcina companiei respective, precum și o situație destul de inconfortabilă pentru prepusul în cauză. Într-o asemenea situație se ridică întrebarea cine ar trebui să acopere aceste prejudicii, care în cele mai multe cazuri sunt enorme.
În practică, angajații Samsung au folosit ChatGPT la muncă și au scurs coduri sursă. Divizia de semiconductori a Samsung a permis inginerilor să utilizeze serviciul pentru a-i ajuta să rezolve problemele cu codul sursă. Cu toate acestea, angajații au introdus în mod neintenționat date sensibile, cum ar fi codul sursă pentru un nou program, notele interne de la întâlniri și informații legate de hardware. În mod alarmant, cu această ocazie, Samsung a descoperit trei alte cazuri în care angajații au dezvăluit informații confidențiale prin intermediul ChatGPT în decursul a 20 de zile. Astfel, secretele comerciale ale Samsung au devenit proprietatea intelectuală a OpenAI, deoarece ChatGPT păstrează datele introduse de utilizatori pentru a rafina în continuare algoritmii săi.[2]
Avocata Hațegan Attorneys relevă că utilizarea ChatGPT poate ridica, de asemenea, preocupări etice și de discriminare. În timp ce modelele de limbaj sunt instruite să fie cât mai imparțiale și neutre posibil, există riscul ca acestea să reflecte sau să perpetueze prejudecăți și discriminări preexistente. Un judecător din Columbia a fost primul judecător care a afirmat că s-a folosit de ChatGPT pentru a pronunța o hotărâre judecătorească[3]. Chiar dacă legea nu interzice utilizarea inteligenței artificiale în pronunțarea hotărârilor judecătorești, este important de avut în vedere că un model de limbă precum ChatGPT nu are abilitatea de a „înțelege” în adevăratul sens al cuvântului informația pe care o deține.
Sistemul IA formulează răspunsuri la întrebările adresate sintetizând propoziții pe baza probabilităților din milioanele de exemple de text cu care a fost învățat. Practic sistemul face o analiză matematică a cuvintelor și literelor din întrebarea adresată la care formulează un răspuns bazat pe rezultatele probabilității respectivelor litere sau cuvinte de a sta unele lângă altele. ChatGPT nu „cunoaște” răspunsul la întrebarea adresată, dar încearcă, cu o precizie impresionantă, să prevadă o secvență logică de text în limbaj uman care să răspundă cel mai potrivit la întrebarea adresată, acesta putând fi motivul pentru care răspunsurile formulate de către sistem sunt adesea incomplete ori false.
Dar răspunsurile formulate de o asemenea tehnologie pot fi părtinitoare, discriminatorii ori chiar greșite, motiv pentru care utilizarea tehnologiei în procesul de soluționare a deciziilor judecătorești poate genera prejudicii însemnate subiecților de drept în sarcina cărora respectivele hotărâri produc efecte, apreciază Ioana Chiper Zah.
La acest moment, tehnologia nu poate ține pasul cu complexitatea legii ori a spețelor juridice. În timp ce ChatGPT poate crea răspunsuri automate la întrebări juridice simple, nu poate înțelege concepte mai complexe sau interpreta jurisprudența. Această lipsă de înțelegere duce la sfaturi inexacte sau incomplete. În acest sens, un avocat din New York a utilizat ChatGPT pentru a efectua "cercetarea juridică" și a citat o serie de cazuri inexistente în fața instanței de judecată[4].
La nivel internațional, utilizarea ChatGPT a întâlnit abordări diferite, atât la nivelul statelor, cât și în rândul companiilor private. Unele au înțeles să impună reguli și standarde clare pentru a preveni discriminarea, prejudiciile ori atingerile aduse datelor cu caracter personal, în timp ce altele au manifestat o atitudine mai flexibilă când vine vorba de IA.
Printre statele care au abordat o perspectivă precaută și au impus restricții în utilizarea Chat GPT se numără Italia. Italia a înțeles să interzică inițial accesul publicului larg la ChatGPT pe motiv că datele cu caracter personal nu ar fi protejate. În prezent, ChatGPT este disponibil în Italia, după ce cerințele autorităților italiene privind elementele de privacy&data au fost implementate[5] de către AI.
Din rândul companiilor, Apple a restricționat instrumentele externe de inteligență artificială, cum ar fi ChatGPT, pentru ca angajații săi să se concentreze pe dezvoltarea propriei inteligențe artificiale.[6] În același ton cu Apple se numără și Samsung[7].
Alte state au adoptat o abordare mai echilibrată, recunoscând potențialul și beneficiile utilizării Chat GPT în diferite domenii, dar insistând pe o monitorizare adecvată și reglementări specifice. Reglementarea IA a fost încurajată chiar și de către creatorul ChatGPT. Directorul general al OpenAI a îndemnat Congresul SUA să adopte standarde de licențiere și de siguranță pentru sistemele avansate de inteligență artificială. Sam Altman a lăudat unele beneficii ale AI, dar a și declarat că intervenția guvernului este esențială pentru a reduce riscurile asociate modelelor de AI din ce în ce mai puternice. El a propus un plan în trei puncte, inclusiv crearea unor standarde de siguranță pentru a evalua modelele de AI și o agenție guvernamentală care să acorde licențe pentru aceste modele[8].
Pe de altă parte, deși India se numără printre statele care observă potențialul inovator al Chat GPT și sprijină dezvoltarea și utilizarea sa în diverse domenii, Ministerul Tehnologiei Electronice și Informației din India afirmat explicit că guvernul indian nu ia în considerare reglementarea inteligenței artificiale în țară.
În 14 iunie, Parlamentul European (PE) a adoptat un raport care reprezintă poziția de negociere referitoare la Legea privind inteligența artificială (IA), cu 499 voturi pentru, 28 împotrivă și 93 abțineri. Acest raport este baza de plecare pentru negocierile PE cu Consiliul UE, adică statele membre. Europarlamentarii stabilesc obligații pentru furnizori și pentru cei care implementează sisteme de IA, în funcție de nivelul de risc pe care îl poate prezenta inteligența artificială. Astfel, sistemele de IA cu un nivel inacceptabil de risc pentru siguranța oamenilor ar urma să fie interzise, precum cele care utilizează evaluarea comportamentului social (clasificând oamenii pe baza comportamentului social sau a caracteristicilor personale). Eurodeputații au inclus în lista interdicții referitoare la utilizările intruzive și discriminatorii ale IA. Furnizorii de sisteme de inteligență artificială de uz general – o branșă nouă, cu evoluție rapidă în domeniul IA – vor trebui să evalueze și să atenueze posibilele riscuri (față de sănătate, siguranță, drepturile fundamentale, mediu, democrație și statul de drept) și să își înregistreze modelele în baza de date a Uniunii înainte de a le lansa pe piața UE. Sistemele de IA generative bazate pe astfel de modele, cum ar fi ChatGPT, ar trebui să respecte cerințele de transparență și să introducă garanții împotriva generării de conținut ilegal.
Deși în prezent persistă un vid de reglementare care ar putea cauza dezechilibre în utilizarea IA, Ioana Chiper Zah consideră că prin gestionarea adecvată la scară largă, în special printr-o reglementare unitară, utilizarea ChatGPT, precum și a tehnologiilor IA care urmează să apară, pot aduce beneficii semnificative în activitățile profesionale sau comerciale, îmbunătățind eficiența și experiența utilizatorilor, în timp ce se respectă valorile și normele legale. Totodată, aceasta crede în necesitatea unor dezbateri mai aprofundate și în România, cu participarea tuturor celor interesați și implicați în noile tehnologii IA și ChatGPT.
[1] Articol accesat online la https://openai.com/blog/chatgpt
[2] Articol accesat online la https://www.techtimes.com/articles/289996/20230404/samsung-employees-used-chatgpt-work-unknowingly-leaked-critical-source-codes.htm?utm_source=substack&utm_medium=email
[3] Articol accesat online la https://www.theguardian.com/technology/2023/feb/03/colombia-judge-chatgpt-ruling#:~:text=%E2%80%9CJudges%20should%20not%20use%20ChatGPT,articles%2C%E2%80%9D%20the%20bot%20added.
[4] Articol accesat online la https://mashable.com/article/chatgpt-lawyer-made-up-cases
[5] Articol accesat online la https://techcrunch.com/2023/04/28/chatgpt-resumes-in-italy/?guccounter=1&guce_referrer=aHR0cHM6Ly9hdm9jYXRvby5zdWJzdGFjay5jb20v&guce_referrer_sig=AQAAAG3Rs5Ke0txazVxWHZdQxU-18TiS-ry4ffaKuuK0vpMxyTyU49Fg_ug3kVnAwWFqMrR3Tu4LUZadEQw-SfwpraSam7_QEQYzd5HWPuRu93Xy1LBgDunUJC0w_QUT3I1M0MORqgE5ZLoimxkLbjXBcclQV2wlRZ_C8LXgMp5Rx5Le
[6] Articol accesat online la https://www.reuters.com/technology/apple-restricts-use-chatgpt-wsj-2023-05-18/
[7] Articol accesat online la chttps://www.reuters.com/technology/apple-restricts-use-chatgpt-wsj-2023-05-18/
[8] Articol accesat online la https://www.wsj.com/articles/chatgpts-sam-altman-faces-senate-panel-examining-artificial-intelligence-4bb6942a?mod=tech_lead_pos1