Creșterea fulgerătoare a IA generativă a creat o adevărată senzație tehnologică datorită produselor centrate pe utilizator precum ChatGPT, Dall-E și Lensa de la OpenAI. Dar creșterea inteligenței artificiale ușor de utilizat a venit odată cu utilizatorii aparent ignoranți sau lăsați în întuneric cu privire la riscurile de confidențialitate prezentate de aceste proiecte.

Cu toate acestea, în mijlocul acestui hype, guvernele internaționale și personalitățile importante ale tehnologiei încep să tragă un semnal de alarmă. Invocând probleme legate de confidențialitate și securitate, Italia tocmai a interzis temporar ChatGPT, ceea ce ar putea inspira un blocaj similar în Germania. În sectorul privat, sute de cercetători AI și lideri tehnologici, inclusiv Elon Musk și Steve Wozniak, au semnat o scrisoare deschisă prin care solicită un moratoriu de șase luni asupra dezvoltării AI dincolo de sfera GPT-4.

Acțiunea relativ rapidă de a încerca să stopeze dezvoltarea iresponsabilă a AI este lăudabilă, dar peisajul mai larg de amenințări pe care AI le prezintă la adresa confidențialității și securității datelor depășește un singur model sau dezvoltator. Deși nimeni nu vrea să strice parada capacităților de schimbare a paradigmei AI, deficiențele acesteia trebuie abordate direct acum pentru a preveni ca consecințele să devină catastrofale.

Furtuna de confidențialitate a datelor AI

Deși ar fi ușor să spunem că OpenAI și alte proiecte AI bazate pe Big Tech sunt singurele responsabile pentru problema de confidențialitate a datelor a AI, subiectul a fost abordat cu mult înainte de a intra în curent. Scandalurile privind confidențialitatea datelor în IA au avut loc înainte de această represiune ChatGPT; în cea mai mare parte, au avut loc în afara ochiului public.

Chiar anul trecut, Clearview AI, o companie de recunoaștere facială bazată pe inteligență artificială despre care se presupune că este folosită de mii de guverne și agenții de aplicare a legii cu cunoștințe publice limitate, i s-a interzis să vândă tehnologie de recunoaștere facială companiilor private din Statele Unite. Clearview a fost, de asemenea, amendat cu 9,4 milioane de dolari în Marea Britanie pentru baza de date ilegală de recunoaștere facială. Cine poate spune că proiectele AI vizuale orientate spre consumator, cum ar fi Midjourney sau altele, nu pot fi folosite în scopuri similare?

Problema este că au fost deja. O serie de scandaluri recente de deepfake care implică pornografie și știri false create prin produse AI de calitate pentru consumatori nu au făcut decât să sporească urgența de a proteja utilizatorii de utilizarea nefastă a AI. Este nevoie de un concept ipotetic de mimetism digital și îl transformă într-o amenințare foarte reală pentru oamenii obișnuiți și personalitățile publice influente.

Legate de: Elizabeth Warren vrea poliția la ușa ta în 2024

Modelele AI generative se bazează în mod fundamental pe date noi și existente pentru a-și construi și consolida capacitățile și capacitatea de utilizare. Face parte din motivul pentru care ChatGPT este atât de minunat. Acestea fiind spuse, un model care se bazează pe noi intrări de date trebuie de unde să obțină acele date și o parte din acestea vor include inevitabil datele personale ale persoanelor care îl folosesc. Și această cantitate de date poate fi ușor utilizată greșit dacă entitățile centralizate, guvernele sau hackerii o obțin.

Deci, având un domeniu limitat de reglementare cuprinzătoare și opinii contradictorii cu privire la dezvoltarea AI, ce trebuie să facă acum companiile și utilizatorii care lucrează cu aceste produse?

Ce pot face companiile și utilizatorii

Faptul că guvernele și alți dezvoltatori ridică steaguri în jurul AI semnalează de fapt progresul din ritmul glacial al reglementării pentru aplicațiile Web2 și criptomonede. Dar ridicarea steagurilor nu este același lucru cu monitorizarea, așa că menținerea unui sentiment de urgență fără a fi alarmist este esențială pentru a crea reglementări eficiente înainte de a fi prea târziu.

Interdicția ChatGPT în Italia nu este primul atac pe care guvernele l-au luat împotriva AI. UE și Brazilia adoptă legi pentru a sancționa anumite tipuri de utilizare și dezvoltare a IA. În mod similar, potențialul AI generativ de a realiza încălcări ale datelor a determinat acțiuni legislative timpurii din partea guvernului canadian.

Problema încălcării datelor AI este destul de gravă, până la punctul în care OpenAI chiar a trebuit să intervină. Dacă ați deschis ChatGPT cu câteva săptămâni în urmă, este posibil să fi observat că funcția de istoric de chat a fost dezactivată. OpenAI a oprit temporar funcția din cauza unei probleme grave de confidențialitate în care au fost expuse indicații de la străini și au fost dezvăluite informații de plată.

Legate de: Nu fi surprins dacă AI încearcă să-ți saboteze cripto-ul

În timp ce OpenAI a stins în mod eficient acest incendiu, poate fi greu să ai încredere în programele conduse de giganții Web2 care își pregătesc echipele de etică AI pentru a face în mod preventiv ceea ce trebuie.

La nivel de industrie, o strategie de dezvoltare a AI care se concentrează mai mult pe învățarea automată federalizată ar stimula, de asemenea, confidențialitatea datelor. Învățarea federată este o tehnică AI colaborativă care antrenează modele AI fără ca nimeni să aibă acces la date, folosind mai multe surse independente pentru a antrena algoritmul pe propriile seturi de date.

Din punctul de vedere al utilizatorului, a deveni un AI Luddit și a renunța complet la utilizarea oricăruia dintre aceste programe este inutil și, probabil, va fi imposibil foarte curând. Dar există modalități de a fi mai inteligent cu privire la IA generativă la care acordați acces în viața de zi cu zi. Pentru companiile și întreprinderile mici care încorporează produse AI în operațiunile lor, este și mai vital să țină cont de datele care alimentează algoritmul.

Zicala atemporală că atunci când folosești un produs gratuit, datele tale personale este produsul încă se aplică AI. Ținând cont de asta, vă poate face să vă regândiți în ce proiecte AI vă petreceți timpul și pentru ce îl folosiți de fapt. Dacă ați fost în fiecare tendință în rețelele sociale care implică trimiterea fotografiilor dvs. pe un site web umbrit alimentat de AI, luați în considerare să o săriți peste.

ChatGPT a ajuns la 100 de milioane de utilizatori la doar două luni de la lansare, o cifră uluitoare care indică în mod clar că viitorul nostru digital va folosi AI. Dar, în ciuda acestor cifre, AI nu este încă omniprezentă. Autoritățile de reglementare și companiile ar trebui să folosească acest lucru în avantajul lor, creând în mod proactiv cadre pentru dezvoltarea AI responsabilă și sigură, mai degrabă decât să urmărească proiecte odată ce acestea devin prea mari pentru a fi controlate. În prezent, dezvoltarea IA generativă nu este echilibrată între protecție și progres, dar mai este timp să găsim calea potrivită pentru a ne asigura că informațiile și confidențialitatea utilizatorilor rămân în prim-plan.

ryan paterson este președintele Unplugged. Înainte de a prelua frâiele Unplugged, a fost fondator, președinte și CEO al IST Research din 2008 până în 2020. A părăsit IST Research cu vânzarea companiei în septembrie 2020. A făcut două turnee la Advanced Research Agency of Defense și 12 ani în Corpul Marin al Statelor Unite.

erik prinț este un om de afaceri, filantrop și veteran al Navy SEAL cu interese de afaceri în Europa, Africa, Orientul Mijlociu și America de Nord. El a fost fondator și președinte al Frontier Resource Group și ca fondator al Blackwater USA, un furnizor de soluții globale de securitate, instruire și logistică pentru guvernul SUA și alte entități, înainte de a vinde compania în 2010.

Acest articol are scop informativ general și nu este destinat și nu ar trebui să fie luat drept sfaturi juridice sau de investiții. Părerile, gândurile și opiniile exprimate aici aparțin exclusiv autorului și nu reflectă sau reprezintă neapărat punctele de vedere și opiniile Cointelegraph.







Source link