Ultima actualizare: 6 iunie 2024
Modele puternice de inteligenta artificiala obtin, uneori, rezultate imprecise – fie ca inventeaza informatii false, fie ca memorizeaza operele altora si le prezinta drept creatii proprii. Pentru a aborda aceasta problema din urma, cercetatorii de la Universitatea din Texas la Austin au dezvoltat un cadru pentru antrenarea modelelor de inteligenta artificiala pe imagini corupte dincolo de recunoastere.
Ce reprezinta „Ambient Diffusion”?
Difuzia ambientala (Ambient Diffusion) este un cadru propus recent pentru antrenarea modelelor de difuzie fara a avea acces la seturile de date cu imagini necorupte. Acest cadru rezolva problema copierii neautorizate a operelor prin antrenarea modelelor pe seturi de date cu imagini deteriorate in mod aleatoriu.
Modelele de difuzie generativa text-la-imagine precum DALL-E, Midjourney si Stable Diffusion transforma textul introdus de utilizator in imagini extrem de realiste. Aceste modele se confrunta acum cu procese din partea artistilor care sustin ca esantioanele generate reproduc operele lor. Antrenate pe miliarde de perechi text-imagine care nu sunt disponibile public, aceste sisteme pot genera reprezentari vizuale de inalta calitate pornind de la indicatii tekstuale, dar este posibil sa se inspire din imagini protejate prin drepturi de autor.
Cum functioneaza Ambient Diffusion?

Cadrul Ambient Diffusion permite antrenarea modelelor de difuzie exclusiv pe baza datelor corupte din imagini. Eforturile initiale sugereaza ca acest cadru este capabil sa genereze in continuare esantioane de inalta calitate fara a vedea vreodata ceva recognoscibil din imaginile sursa originale.
Ambient Diffusion a fost prezentat initial la conferinta NeurIPS din 2023 si a fost adaptat si extins ulterior. Lucrarea ulterioara, „Consistent Diffusion Meets Tweedie”, disponibila pe serverul preprint arXiv, a fost acceptata la Conferinta Internationala de Machine Learning din 2024. In colaborare cu Constantinos Daskalakis de la Massachusetts Institute of Technology, echipa a extins cadrul pentru a antrena modelele de difuzie pe seturi de date cu imagini corupte de alte tipuri de zgomot, nu doar prin mascareaPixelilor, si pe seturi de date mai mari.
Aplicatii potentiale
Potrivit lui Adam Klivans, profesor de informatica implicat in acest proiect, cadrul ar putea fi util si pentru aplicatii stiintifice si medicale, in special in cazul cercetarilor in care este costisitor sau imposibil sa se aiba un set complet de date necorupte, de la imagistica gaurilor negre pana la anumite tipuri de scanari RMN.
Experimente initiale conduse de Klivans, Alex Dimakis – profesor de inginerie electrica si informatica, impreuna cu alti colaboratori de la Institutul Inter-Institutional pentru Fundamentele Invatarii Automate au demonstrat urmatoarele:
- Antrenand initial un model de difuzie pe un set de 3.000 de imagini cu celebritati, modelul antrenat pe date necorupte copia in mod evident exemplele din setul de antrenament.
- Insa, atunci cand cercetatorii au corupt datele de antrenament, mascand aleatoriu pana la 90% din pixelii individuali intr-o imagine, si au reantrenat modelul cu noua lor abordare, esantioanele generate au ramas de inalta calitate, dar aratau foarte diferit.
- Modelul poate genera in continuare fete umane, dar cele generate difera semnificativ de imaginile din setul de antrenament.
Giannis Daras, student la doctorat in informatica care a condus aceasta lucrare, a explicat:
„Cadrul nostru permite controlarea compromisului dintre memorare si performanta. Pe masura ce creste nivelul de coruptie intalnit in timpul antrenamentului, memorizarea setului de antrenare scade.„
Impact si perspective
Cercetatorii afirma ca acest cadru indica o solutie care, desi ar putea modifica performanta, nu va genera niciodata zgomot. Abordarea reprezinta un exemplu al modului in care cercetatorii academici avanseaza inteligenta artificiala pentru a raspunde nevoilor societatii, o tema-cheie in acest an la Universitatea din Texas la Austin, care a declarat 2024 „Anul Inteligentei Artificiale”.
Echipa de cercetare a inclus membri de la Universitatea California, Berkeley si MIT.
Ambient Diffusion demonstreaza modul in care comunitatea academica cauta solutii pentru a imbunatati etica si transparenta modelelor de inteligenta artificiala generative. Prin coruperea intentionata a datelor de antrenament, cercetatorii au reusit sa previna reproducerea neautorizata a operelor protejate de drepturi de autor, deschizand calea pentru utilizari mai sigure si responsabile ale acestor tehnologii revolutionare. Invitatia este deschisa pentru a explora in continuare modalitati de a imbunatati corectitudinea si echitatea IA, asigurand in acelasi timp performante ridicate. Impartasiti gandurile si perspectivele dumneavoastra in comentarii!
Sursa: Phys.org |
Sursa imagini: Unsplash |
Subiecte abordate in articol: inteligenta artificiala, difuzie ambientala, invatare automata, proprietate intelectuala, etica