Dacă nu trăiești sub o piatră, sigur ai auzit de Chat Generative Pre-trained Transformer sau, mai pe scurt ChatGPT. Acesta este un chatbot lansat de OpenAI în noiembrie 2022 care s-a dovedit util în domenii precum suportul tehnic, educația, rezumarea textului, recuperarea informațiilor și altele. În scurta sa existență, această formă de inteligență artificială a devenit un topic de discuție controversat.

Pe de-o parte, sunt tech-optimiștii, alias oamenii care consideră că acest tip de tehnologie va revoluționa existența umană. În cealaltă tabără se află tech-pesimiștii, persoanele care sunt mai rezervate și care cred că prin abuzul acestor noi tipuri de inteligență, oamenii nu vor mai putea controla această tehnologie.

Cum nu putem preconiza viitorul, ne putem îndrepta atenția spre ce știm deja cu certitudine, și anume că ChatGPT are multe limitări. Însăși OpenAI recunoaște că ChatGPT scrie uneori răspunsuri care sună plauzibil, dar incorecte sau fără sens.

ChatGPT are cunoștințe limitate despre evenimentele care au avut loc după septembrie 2021, lucru pe care îl și anunță utilizatorilor.

În ciuda neajunsurilor sale, tentația de a-ți ușura munca apelând la astfel de ,,scurtături” este extrem de mare, atât pentru studenți sau elevi, cât și pentru oameni de toate vârstele din toate categoriile profesionale.

Însă, pe lângă acestea, iată ce NU poate face ChatGPT:

Aceste erori făcute de IA se mai numesc ,,halucinații” și constau în inventarea anumitor date false pentru a putea răspunde la solicitarea utilizatorului.

Un astfel de neajuns al erorilor este foarte bine evidențiat în cazul Avianca-Matta. Matta, un bărbat de naționalitate americană, a acuzat compania columbiană aeriană AVIANCA că în august 2019 a suferit leziuni grave cauzate de personal în timpul zborului său. Acesta a dat în judecată compania abia în februarie 2022 în statul New York. Cazul a fost trimis mai departe către instanțele federale ale New York-ului.

Avocatul reclamantului, Peter LoDuca, s-a folosit de ChatGPT și a citat în opoziția sa cazuri reale și articole din Convenția din Montreal care susțineau că dacă o companie depune cerere de faliment, statut de prescripție devine de trei ani. Aceste articole, deși păreau reale nu apăreau în convenție. Cazurile citate fuseseră complet inventate. S-a dovedit că LoDuca s-a folosit de inteligență artificială pentru a-și scrie opoziția, dar nu s-a sinchisit să verifice dacă informațiile erau adevărate. Atât lui, cât și superiorului său, li s-a retras licența de avocatură și riscă repercusiuni penale.

Alte probleme apar atunci când datele de intrare suferă de prejudecăți algoritmice, care pot fi dezvăluite atunci când ChatGPT răspunde la solicitări de tipul descriptori ai persoanelor. Într-un caz, acest bot a generat un răspuns care indică faptul că femeile și oamenii de știință de culoare erau inferiori bărbaților caucazieni din domeniul științelor.

Cu toate aceste neajunsuri, chatboturile continuă să învețe din erori și să se perfecționeze într-un ritm mult peste puterea de asimilare umană. Este esențial ca societatea să pună în aplicare măsuri de protecție adecvate și să utilizeze în mod responsabil această nouă tehnologie. Rămâne de observat cum ne va afecta pe viitor.