Programul AI derutește cercetătorii

Cercetătorii au rămas nedumeriți după ce cel mai recent program al OpenAI, un dezvoltator de sisteme de inteligență artificială, pare să fi creat un limbaj pe care numai el îl poate înțelege. DALL-E2 este un generator de auto-învățare text-to-image lansat în ianuarie 2022, funcția sa principală este de a folosi instrucțiunile text furnizate de utilizatori și de a produce o imagine care să se potrivească cuvintelor împreună cu subtitrări.

Cu toate acestea, potrivit studentului doctorat în informatică Giannis Daras, una dintre limitările DALL-E2 a fost capacitatea de a produce text, deoarece este capabil să returneze cuvinte prostii numai atunci când vi se solicită. Într-o lucrare publicată în arhiva științifică, Arxiv la începutul acestei luni, Daras a oferit un exemplu al acestei limitări, afirmând că alimentarea programului cu promptul „Doi fermieri care vorbesc despre legume, cu subtitrări” returnează o imagine în care doi fermieri vorbesc între ei în timp ce țin niște legume în mâini, dar textul care apare în imagine pare a fi complet farfurie.

Dar cercetătorii și-au dat seama acum că ar putea exista mult mai mult în cuvintele aparent de neînțeles ale programului. „Am descoperit că acest text produs nu este aleatoriu, ci mai degrabă dezvăluie un vocabular ascuns pe care modelul pare să-l fi dezvoltat intern.” a scris Daras.

El a oferit și un alt exemplu: a cere programului să producă „o imagine a cuvântului avion” ar duce deseori la imagini generate care descriu text farfurie. Cu toate acestea, transmiterea acelui text înapoi la AI a dus frecvent la imagini cu avioane. Ipoteza lui Daras este că IA pare să-și fi dezvoltat propriul vocabular și să fi atribuit sens anumitor cuvinte pe care ea însăși le-a produs, cum ar fi în cazul fermierilor, care vorbeau despre legume și păsări.

Dar, deși ar putea fi impresionant, Daras nu pare să fie prea încântat de idee, spunând că, dacă are dreptate în ceea ce privește capacitatea AI de a-și produce propriul limbaj, aceasta ar putea pune serioase provocări de securitate pentru generatorul de text-to-image. .

„Prima problemă de securitate se referă la utilizarea acestor mesaje farfurie ca atacuri adverse în spate sau modalități de a ocoli filtrele.” a scris el în lucrarea sa. „În prezent, sistemele de procesare a limbajului natural filtrează solicitările de text care încalcă regulile politicii și pot fi folosite solicitări farfurii pentru a ocoli aceste filtre.” „Mai important, indicațiile absurde care generează în mod constant imagini ne provoacă încrederea în aceste mari modele generative.” el a adăugat.

Cu toate acestea, lucrarea lui Daras nu a fost încă revizuită de colegi și unii cercetători au pus sub semnul întrebării concluziile sale, unul afirmând că AI nu pare să funcționeze întotdeauna în modul descris. Analistul de cercetare Benjamin Hilton spune că a cerut generatorului să arate două balene care vorbesc despre mâncare, cu subtitrări. La început, DALL-E2 nu a reușit să returneze niciun text descifrabil, așa că cercetătorul a continuat până când a făcut-o în cele din urmă.

Hilton a declarat că „„Evve waeles” este fie o prostie, fie o corupție a cuvântului „balene”. Giannis a avut noroc când balenele lui au spus „Wa ch zod rea” și s-a întâmplat să genereze imagini cu mâncare.” El a adăugat că unele fraze, cum ar fi „Redare 3D” adesea au dat rezultate complet diferite, sugerând că nu înseamnă exact același lucru.

Cu toate acestea, Hilton a recunoscut că o evaluare adecvată a lucrării lui Daras ar putea dezvălui mult mai multe și a insistat că mai poate exista ceva în pretențiile sale, așa cum este expresia farfurie. „Apoploe versreaitais” returnează în mod constant imagini cu păsări.

DALL-E2 nu este primul AI care arată semne de dezvoltare a unei limbi, anterior Google Translate AI, care folosește o rețea neuronală pentru a traduce unele dintre cele mai populare limbi, pare să-și fi creat și propriul vocabular artificial pe care îl folosea pentru a traduce. între limbi în care nu a fost instruit în mod explicit.

Inteligența artificială a Facebook părea să fi dezvoltat și o formă de comunicare internă, după ce doi chatboți au început să vorbească într-un mod complet de neînțeles pentru oameni. De fapt, a ajuns atât de departe atât de repede încât cercetătorii au decis să tragă din priză înainte de a se putea dezvolta mai departe. Programatorii Facebook au insistat că vor ca boții AI să vorbească în engleză, astfel încât alți utilizatori să-i poată înțelege și au remarcat că oamenii nu vor fi niciodată capabili să țină pasul cu evoluția unui limbaj generat de AI.

Leave a Comment