În ultimul timp, tot mai mulți angajați au început să folosească instrumente de inteligență artificială la locul de muncă fără aprobarea oficială a departamentelor IT. Acest fenomen, cunoscut sub numele de „shadow AI” (AI folosit pe ascuns), a devenit din ce în ce mai răspândit în companiile din întreaga lume.
„E mai ușor să ceri iertare decât permisiune”, spune John, un inginer software care lucrează într-o companie de servicii financiare tehnologice. El face parte din categoria angajaților care preferă să își asume riscul folosirii unor instrumente AI personale, decât să treacă prin procesul birocratic de aprobare.
Conform unui studiu recent realizat de Software AG, jumătate dintre lucrătorii care își desfășoară activitatea la birou folosesc unelte AI personale în timpul programului. Motivele sunt diverse – unii nu au acces la instrumentele AI oficiale ale companiei, în timp ce alții preferă să își aleagă singuri aplicațiile cu care lucrează.
Cum folosesc angajații AI-ul neautorizat
John, de exemplu, are acces la GitHub Copilot prin intermediul companiei, dar preferă să folosească Cursor, o alternativă care îi permite să fie mai productiv. „Este practic un autocompletare avansat, dar unul foarte bun”, explică el. „Poate completa până la 15 rânduri deodată și verifici doar dacă rezultatul este cel pe care l-ai fi scris și tu. Te ajută să fii mai eficient.”
Peter, manager de produs într-o companie de stocare a datelor, folosește ChatGPT prin intermediul motorului de căutare Kagi, deși firma sa permite doar utilizarea Google Gemini. El consideră că cel mai mare beneficiu al AI-ului vine din capacitatea sa de a analiza planurile din perspectiva clienților.
„AI-ul nu îți oferă neapărat răspunsuri, ci mai degrabă un partener de discuție”, spune Peter. „Ca manager de produs, ai multe responsabilități și nu ai mereu cu cine să discuți deschis despre strategie. Aceste unelte îți permit să faci asta oricând ai nevoie.”
Riscurile folosirii AI-ului neautorizat
Harmonic Security, o companie specializată în identificarea și prevenirea utilizării necorespunzătoare a AI-ului, monitorizează peste 10.000 de aplicații AI. Dintre acestea, aproximativ 30% sunt antrenate folosind informațiile introduse de utilizatori, ceea ce înseamnă că datele companiei ar putea ajunge să fie folosite pentru antrenarea modelelor AI.
„Este destul de dificil să extragi direct datele din aceste instrumente AI”, spune Alastair Paterson, CEO și co-fondator al Harmonic Security. Cu toate acestea, companiile sunt îngrijorate de stocarea datelor în servicii AI asupra cărora nu au control și care ar putea fi vulnerabile la breșe de securitate.
Te invităm să împărtășești acest articol cu colegii și să ne spui experiența ta legată de folosirea AI-ului la locul de muncă. Împreună putem contribui la o mai bună înțelegere a modului în care inteligența artificială transformă mediul profesional.
Sursa imaginii: Getty Images
Etichete: inteligență artificială la muncă, shadow AI, productivitate AI, securitate date, ChatGPT muncă, AI neautorizat