CEO-ul Tim Cook a aruncat o privire rară, chiar dacă precaută, asupra grădinii cu pereți a Apple în timpul porțiunii de întrebări și răspunsuri a unui apel recent privind veniturile, atunci când i s-a cerut părerea despre inteligența artificială generativă (AI) și unde „se duce”.

Cook s-a abținut să dezvăluie planurile Apple, spunând din față: „Nu comentăm despre foile de parcurs ale produselor”. Cu toate acestea, a făcut-o intim că firma a fost interesată de spațiu:

„Cred că este foarte important să fii deliberat și atent în modul în care abordezi aceste lucruri. Și există o serie de probleme care trebuie rezolvate. … Dar potențialul este cu siguranță foarte interesant.”

CEO-ul a adăugat mai târziu că compania crede că „AI este uriaș” și că va „continua să o integreze în produsele noastre foarte atent”.

Comentariile lui Cook despre abordarea „deliberată și atentă” ar putea explica absența companiei din spațiul AI generativ. Cu toate acestea, există unele indicii că Apple efectuează propriile cercetări asupra modelelor conexe.

o lucrare de cercetare programat care va fi publicat la conferința Interaction Design and Children din iunie, detaliază un sistem nou pentru combaterea părtinirii în dezvoltarea seturi de date de învățare automată.

Prejudecata, tendința unui model AI de a face predicții incorecte sau inexacte bazate pe date incorecte sau incomplete, este des citat ca una dintre cele mai presante preocupări pentru dezvoltarea sigură și etică a modelelor generative de IA.

Hârtia, care poate fi în prezent citit în preprint, detaliază un sistem prin care mai mulți utilizatori ar contribui la dezvoltarea unui set de date dintr-un sistem AI cu aceleași informații.

Dezvoltarea IA generativă de status quo nu adaugă feedback uman decât în ​​etapele ulterioare, când modelele au dobândit deja o părtinire de antrenament.

Noua cercetare a Apple integrează feedback-ul uman la începutul dezvoltării modelului pentru a democratiza în esență procesul de selecție a datelor. Rezultatul, potrivit cercetătorilor, este un sistem care folosește o „abordare practică și colaborativă pentru a introduce strategii pentru a crea seturi de date echilibrate”.

Legate de: Problema cutiei negre AI: provocări și soluții pentru un viitor transparent

Este demn de menționat că acest studiu de cercetare a fost conceput ca o paradigmă educațională pentru a stimula interesul începătorilor pentru dezvoltarea învățării automate.

Ar putea fi dificil să scalați tehnicile descrise în lucrare pentru a fi utilizate în instruirea modelelor de limbaj mari (LLM), cum ar fi ChatGPT și Google Bard. Cu toate acestea, cercetarea demonstrează o abordare alternativă pentru combaterea părtinirii.

În cele din urmă, crearea unui LLM fără părtiniri nedorite ar putea reprezenta un moment de referință pe calea dezvoltării sistemelor AI la nivel uman.

Astfel de sisteme pot perturba toate aspectele sectorului tehnologic, în special lumea fintech, tranzacționarea cu criptomonede și blockchain. Boții imparțiali de tranzacționare cu acțiuni și criptomonede capabili să raționeze la nivel uman, de exemplu, ar putea zgudui piața financiară globală prin democratizarea cunoștințelor de tranzacționare la nivel înalt.

În plus, demonstrarea unui LLM imparțial ar putea contribui în mare măsură către satisfacerea preocupărilor guvernamentale de securitate și etică pentru industria AI generativă.

Acest lucru este remarcabil în special pentru Apple, deoarece orice produse AI generative pe care le dezvoltă sau alege să le susțină ar beneficia de chipsetul AI încorporat al iPhone-ului și amprenta sa de 1,5 miliarde de utilizatori.