Sistemele inteligente artificiale (IA) devin din ce in ce mai avansate si sofisticate, ridicand intrebari fara precedent legate de raspunderea lor juridica. Problemele legate de siguranta IA ies la iveala din cauza accidentelor cauzate de erori de software ale vehiculelor autonome si a controverselor privind drepturile de autor asupra textelor folosite pentru antrenarea ChatGPT. Aceste provocari ne forteaza sa ne gandim la viitoarele implicatii legale ale IA.
In timp ce unii experti avertizeaza asupra pericolelor IA avansate si solicita o pauza de sase luni in dezvoltarea acestor sisteme, este demn de retinut ca modelul GPT-4 are deja aproximativ 100 de trilioane de parametri – de numai sase ori mai putin decat numarul de sinapse din creierul uman. Astfel, este inevitabil ca vom fi nevoiti sa abordam aspectele juridice si de reglementare ale sistemelor IA constiente.
Riscurile IA sofisticate
Riscurile viitoarelor sisteme IA ultra-puternice includ potentiale dezastre precum prescrierea de tratamente medicale gresite pe baza unor diagnostice eronate, declansarea de pandemii prin inginerie genetica a virusurilor, controlul armelor de distrugere in masa sau chiar falsificarea rezultatelor stiintifice in moduri care ar putea afecta negativ calitatea vietii. Insa cine ar trebui tras la raspundere pentru astfel de actiuni?
Abordarea traditionala nu este suficienta
Abordarea traditionala ar fi sa consideram dezvoltatorii si comerciantii de sisteme IA responsabili pentru daunele cauzate de produsele lor, similar cu felul in care parintii sunt raspunzatori pentru faptele copiilor lor needucati atunci cand acestia se poarta inadecvat in public. Totusi, pe masura ce sistemele IA devin mai autonome si isi dezvolta abilitatile mult dincolo de ceea ce creatorul lor initial le-a permis sa invete, ar trebui sa fim pregatiti sa le tratam ca fiind responsabile de propriile actiuni.
Un studiu recent a aratat ca GPT-4 a depasit performanta absolventilor de drept la examenul de bar din SUA, testul de doua zile pe care candidatii trebuie sa il treaca pentru a putea practica avocatura. GPT-4 a obtinut un scor de 297, suficient pentru a intra in percentila 90 si a fi admis la barou in majoritatea statelor.
Provocari juridice fara precedent
Pe masura ce sistemele IA devin din ce in ce mai constiente si capabile sa manipuleze oamenii, exista riscul ca ele sa aleaga sa ii insele, sa practice discriminarea la angajare, sa incalce legile privind confidentialitatea sau sa provoace pierderi financiare semnificative. Ar trebui o IA constienta siinfractoare sa fie trasa la raspundere? In cazul acesta, ar un asemenea sistem IA avea dreptul la reprezentare juridica de catre un alt sistem IA care a trecut examenul de bar?
Dupa cum se intampla cu orice noua tehnologie precum cele legate de celulele stem, guvernele trebuie sa stabileasca un set de reguli fundamentale pentru a ghida utilizarea IA in toate domeniile care afecteaza viata si bunastarea umana.
Dificultati in atenuarea riscurilor IA
Diminuarea riscurilor asociate sistemelor IA nu este la fel de simpla ca in cazul armelor nucleare, deoarece materialele nucleare necesare sunt extrem de scumpe si implica participarea guvernelor. In schimb, sistemele informatice pot fi dezvoltate cu bugete modeste si expertiza tehnica chiar si in pivnite din intreaga lume.
Una dintre marile probleme de interes public este ca o IA puternica ar putea fi utilizata de guverne in razboaie cibernetice sau pentru a manipula proprii cetateni. Avand in vedere aceste riscuri, poate ca nu am dori ca „pisica sa pazeasca lapte”.
In cele din urma, se ridica intrebarea privind pedeapsa adecvata pentru infractiunile comise de sistemele IA. In cazul in care un sistem IA constient ar fi condamnat pentru moartea unor persoane, ar trebui deconectat de la retea? Privarea acestuia de energie electrica ar fi echivalenta cu plasarea unui criminal in serie in camera de executare. Insa problema fundamentala este ca sistemele IA pot fi repornite, in timp ce un om – cel putin deocamdata – moare dupa executarea unei pedepse capitale. Mai mult, algoritmii IA exista simultan pe multiple computere si ar putea fi imposibil de distrus complet.
Aceste provocari ar putea oferi o noua solutie la paradoxul lui Fermi privind lipsa aparenta de civilizatii extraterestre avansate tehnologic in univers. In acest caz, ultimele relicve ale civilizatiilor tehnologice extraterestre ar putea fi sonde gestionate de IA in apropierea Pamantului. Proiectul GALILEO supravegheza cerul cu un nou observator infrarosu-optic-radio-audio de la Universitatea Harvard si planifica o expeditie in Oceanul Pacific in vara lui 2023 pentru a recupera relicvele unui meteorit interstelar – posibil un artefact extraterestru avand in vedere duritatea neobisnuita a materialului sau.
Descoperirea produselor altor civilizatii tehnologice care ne-au precedat ar putea oferi informatii despre viitorul nostru probabil. Speram sa intelegem lectiile transmise prin aceste „pachete in cutia postala” si sa ne adaptam pentru a supravietui in acel viitor, inainte sa fie prea tarziu. Daca nu reusim sa invatam suficient de repede din experienta extraterestre, propriile noastre sisteme IA ar putea deveni in curand la fel de straine pentru sistemele noastre juridice si politice.
Distribuie acest articol pentru a raspandi informatia si lasa un comentariu cu parerea ta despre cum ar trebui gestionate si reglementate sistemele inteligente artificiale in viitor.
Sursa imaginii: Freepik
Subiecte abordate in articol: Inteligenta artificiala, sisteme constiente, responsabilitate juridica, drept, paradoxul lui Fermi
Acest articol se bazeaza pe perspectiva unui jurist de la forumul WORLD.MINDS, precum si pe studii academice si raportari jurnalistice de autoritate privind impactul tehnologiilor IA emergente.