Tokom prethodnog perioda, društvene mreže i internet je uzdrmao Blejk Lemojn, koji tvrdi da Google chatbot LaMDA ima „razum i dušu“ i da je na nivou deteta uzrasta od šest do osam godina.
Lemojn je softverski inženjer zadužen za etička pitanja u Responsible AI sektoru kompanije Google. On je svojom izjavom da bi Google chatbot LaMDA mogao da se nazove osobom, uzburkao strasti i među stručnjacima i među laicima.
Lemojn je suspendovan zbog ovih svojih ispada, ali čitav slučaj postavlja zanimlivo pitanje. Šta zapravo predstavlja LaMDA i čemu ovaj projekat uopšte služi?
LaMDA ili Language Models for Dialog Applications predstavlja jezički model za mašinsko učenje, koji je kreiran od strane kompanije Google kao chatbot. Njegova uloga je da imitira ljude u razgovorima.
Poput BERT, GPT-3 i drugih jezičkih modela, LaMDA je izgrađena na Transformeru – arhitekturi neuralnih mreža koju je Google osmislio 2017. godine i načinio je otvoreni kodom.
Ova arhitektura proizvodi model koji može da se istrenira da čita veliki broj reči, kao i da vodi računa o tome na koji način te reči imaju smisla, kao i da predvidi koja reč bi mogla uslediti. Ono što LaMDA-u čini drugačijom jeste da je trenirana na dijalogu, za razliku od većine drugih modela.
Iako se razgovori obično vrte oko određenih tema, oni su često otvoreni, što znači da mogu da počnu sa jednom temom i da se završe negde drugde. Upravo taj „tečni“ kvalitet obavljanja razgovora je ono što na kraju odaje konvencionalne chat botove. Oni nisu u stanju da prate takav promenljivi dijalog jer su dizajnirani da prate uske, unapred definisane delove razgovora. Ali LaMDA je dizajnirana tako da može da se neometano uključi u razgovore o gotovo beskrajnom broju tema.
Lemojn je objavio „intervju“ koji je obavio sa Google LaMDA chatbotom, a u okviru kojeg AI (bar prema njegovom mišljenju) pokazuje osjećaj usamljenosti i žudi za novim duhovnim saznanjima. Upravo je ovo, zajedno sa drugim elementima u okviru kojih je ovaj jezički model pokazao neke nivoe svesti, ono što je Lemojna navelo da veruje da je model postao „misleće biće“.
Google ja naravno odbacio ovakve tvrdnje, a zvanična poruka kompanije jeste da ovakvi modeli za razgovor nemaju razum kakav pominje Lemojn. Ti sistemi zapravo imitiraju tipove razmena koji mogu da se pronađu u milionima rečenica.
Međutim, čak i ako LaMDA nije sistem koji ima svest, sama činjenica da tako može da deluje ljudskom biću moglo bi biti razlog za zabrinutost. Sam Google je priznao takve rizike u objavi na blogu iz 2021. godine, kada je najavio LaMDA-u.
„Jezik je možda jedno od najvećih oruđa čovečanstva, ali kao i svi alati može da se zloupotrebi. Modeli obučeni na jeziku kao sredstvu mogu da propagiraju tu zloupotrebu — na primer, internalizovanjem predrasuda, preslikavanjem govora mržnje ili repliciranjem obmanjujućih informacija. Čak i kada je jezik na kom se obučava pažljivo proveren, sam model i dalje može da se loše koristi ili zloupotrebi“, stoji u objavi kompanije.
Ipak, Google kaže da je, iako stvara tehnologije poput LaMDA, najveći prioritet kompanije da minimizuje mogućnost pojave takvih rizika. Kompanija je saopštila da je izgradila resurse otvorenog koda koje istraživači mogu da koriste za analizu modela i podataka o kojima su obučeni i da je „pomno ispitala LaMDA u svakom koraku njenog razvoja“.
this conversation about consciousness and emotions and death with an AI named LaMBDA at Google is absolutely chilling
this is without-a-doubt one of the craziest things I’ve ever seen technology do, I almost can’t believe it’s real
wow @nitashatiku https://t.co/DoBadeXRrZ pic.twitter.com/clJAeElufn
— Maybe: Fred Benenson (@fredbenenson) June 11, 2022
Kada su u pitanju mišljenja stručnjaka, i na ovom polju su se razvili različiti stavovi. Neki eksperti za AI kažu da ljudska bića (među kojima je i Lemojn) imaju predispoziciju za antropomorfizovanje karakteristike nečega odmah kada uoče i najslabije signale, a na ovo nisu imuni ni inženjeri u Googleu. Steven Pinker sa Harvarda je nešto grublji, pa kaže da Lemojn ne ume da razlikuje samosvest, inteligenciju i naglašava da nema dokaza da ih jezički modeli poseduju. Neki drugi, kao što je deverloper Ron Džefris, konstatuju da ne postoji jasna linija između „razuma i ne-razuma“.
Zanimljivo je da je, pre nego što je sa svojim tvrdnjama izašao u javnost, Lemojn bio u višemesečnom sukobu sa kompanijom Google oko svojih stavova. Google je forsirao svoj stav da stotine drugih inženjera i naučnika, koji su učestvovali u LaMDA projektu, zapravo imaju drugačije zaključke i iskustva od onih koje propagira Lemojn.
Jan Lekun iz kompanije Meta, koji je jedan od vodećih autoriteta na polju neuralnih mreža (što LaMDA jeste u svojoj osnovi), smatra da ta vrsta sistema nije dovoljno moćna za usvajanje istinske inteligencije.
Google naravno nije jedina kompanija na svetu koja razvija ovakav ili slične sisteme veštačke inteligencije i biće zanimljivo videti u kom smeru će se ubuduće razvijati ova sfera nauke.
Izvor: b92.net