FacebookTwitterLinkedIn

Fenomenul ChatGPT ia amploare în tot mai multe companii americane, în ciuda temerilor care i-au determinat pe angajatori cunoscuți precum Microsoft şi Google să reducă utilizarea acestuia.

În ultima perioadă, companiile din întreaga lume iau în considerare cum să folosească cât mai bine ChatGPT, un program chatbot care foloseşte AI generativă pentru a ţine conversaţii cu utilizatorii şi a răspunde la nenumărate solicitări.

Însă, potrivit unui sondaj Reuters/Ipsos, tot mai mulți angajați din SUA apelează la ChatGPT pentru a-i ajuta la îndeplinirea sarcinilor de bază, asta în ciuda temerilor care i-au determinat pe angajatori precum Microsoft şi Google să reducă utilizarea acestuia, transmite Reuters.

Astfel, firmele şi companiile de securitate şi-au exprimat îngrijorarea că ar putea duce la scurgeri de proprietate intelectuală şi strategii.

Ca model de exemple ce folosește ChatGPT pentru a ajuta în munca de zi cu zi sunt încadrate redactarea de e-mailuri, rezumarea documentelor şi efectuarea cercetărilor preliminare.

Așadar, conform concluziilor sondajului, aproximativ 28% dintre respondenţii au recunoscut că folosesc în mod regulat ChatGPT la locul de muncă, în timp ce doar 22% au spus că angajatorii lor au permis în mod explicit astfel de instrumente externe.

Sondajul Reuters/Ipsos, efectuat pe 2.625 de adulţi din Statele Unite, a avut un interval de credibilitate, o măsură de precizie, de aproximativ 2 puncte procentuale.

Aproximativ 10% dintre cei chestionaţi au spus că şefii lor au interzis în mod explicit instrumentele externe de inteligenţă artificială, în timp ce aproximativ 25% nu ştiu dacă compania lor a permis utilizarea tehnologiei.

ChatGPT a devenit aplicaţia cu cea mai rapidă creştere din istorie după lansarea sa în luna noiembrie 2022. A creat atât entuziasm, cât şi alarmă, punând dezvoltatorul său OpenAI în conflict cu autorităţile de reglementare, în special în Europa, unde colectarea de date în masă a companiei a atras critici din partea organelor de supraveghere a confidenţialităţii.

Evaluatorii umani de la alte companii pot citi oricare dintre chat-urile generate, iar cercetătorii au descoperit că inteligenţa artificială similară AI ar putea reproduce datele pe care le-a absorbit în timpul antrenamentului, creând un risc potenţial pentru informaţiile proprietare.

„Oamenii nu înţeleg cum sunt folosite datele atunci când folosesc servicii de inteligenţă artificială generativă. Pentru companii, acest lucru este esenţial, deoarece utilizatorii nu au un contract cu multe AI – pentru că sunt un serviciu gratuit -, astfel încât companiile nu şi-ar fi asumat riscul prin procesul lor obişnuit de evaluare”, a declarat Ben King, VP pentru încrederea clienţilor la firma de securitate corporativă Okta.

OpenAI a refuzat să comenteze atunci când a fost întrebat despre implicaţiile angajaţilor individuali care folosesc ChatGPT, dar a evidenţiat o postare recentă pe blogul companiei care asigură partenerii corporativi că datele lor nu vor fi folosite pentru a instrui chatbot-ul în continuare, cu excepţia cazului în care aceştia şi-au dat permisiunea explicită.

Când oamenii folosesc Google Bard, acesta colectează date precum text, locaţie şi alte informaţii de utilizare. Compania permite utilizatorilor să şteargă activităţile anterioare din conturile lor şi să solicite eliminarea conţinutului introdus în AI.

Google a refuzat să comenteze atunci când i s-au cerut mai multe detalii, iar Microsoft nu a răspuns imediat unei solicitări de comentarii.

Un angajat al Tinder, cu sediul în SUA, a spus că lucrătorii de la aplicaţia de întâlniri au folosit ChatGPT pentru „sarcini inofensive”, cum ar fi scrierea de e-mailuri, chiar dacă compania nu permite acest lucru în mod oficial, notează news.ro, citând Reuters.

„Sunt e-mailuri obişnuite. Foarte lipsite de consecinţe, cum ar fi să faci invitaţii amuzante în calendar pentru evenimentele echipei, e-mailuri de adio când cineva pleacă… Îl folosim şi pentru cercetări generale”, a spus angajatul, care a refuzat să fie numit pentru că nu era autorizat să vorbească cu reporterii.

Angajatul a spus că Tinder nu are o regulă „fără ChatGPT”, dar că angajaţii îl folosesc în continuare într-un „mod generic, care nu dezvăluie nimic despre faptul că suntem la Tinder”.

Reuters nu a putut confirma în mod independent modul în care angajaţii de la Tinder folosesc ChatGPT.

În luna mai, Samsung Electronics a interzis personalului la nivel global să folosească ChatGPT şi instrumente similare AI, după ce a descoperit că un angajat a încărcat cod sensibil pe platformă.

„Examinăm măsurile pentru a crea un mediu sigur pentru utilizarea generativă a inteligenţei artificiale, care sporeşte productivitatea şi eficienţa angajaţilor. Cu toate acestea, până când aceste măsuri sunt gata, restricţionăm temporar utilizarea AI generativă prin dispozitivele companiei”, au declarat oficialii Samsung într-o declaraţie din 3 august.