Në 2015-ën njeriu i makinave dhe raketave Elon Musk ju bashku një prej figurave më të spikatura të botës së startupeve Sam Altman për të zhvilluar më tej inteligjencën artificiale.
Ata bashkëthemeluan një institut kërkimor të quajtur OpenAI për të hulumtues në këtë fushë dhe rezultat i ofronin për të mirën e përbashkët. Sot hulumtuesit e institutit janë të shqetësuar për diçka që kanë krijuar por që nuk do ta ofrojnë për publikun.
Rezultatet duken të frikshme
Sistemi AI që po tremb krijuesit është dizajnuar për të mësuar gjuhë. Dhe bën e shumë mirë duke rezultate disa herë më të lartë sesa çdo sistem tjetër i automatizuar. Por kur hulumtuesit e konfiguruan sistemin për të gjeneruar tekst, ato filluan të mendonin për arritjen e tyre në një formë tjetër. “Duket shumë real,” thotë David Luan, zëvendës president i inxhinierisë pranë OpenAI për tekstet që sistemi gjeneron. Ai the hulumtuesit e tjerë filluan të mendonin sesi mund të përdorej për qëllime jo të mira. “Dikush që ka qëllime të këqija mund ta përdorë për të gjeneruar lajme të rreme të cilësisë së lartë,” thotë Luan.
Shqetësimi bëri që OpenAI të publikonte një letër hulumtuese por jo të publikonte të gjithë modelin ose 8 milion faqet e përdorur për ta trajnuar.
Më përpara instituti jepte plotësisht kodin në publikimet e tij. Hezitimi i OpenAI vjen në një kohë kur shqetësime për përmbajtjet e rreme po rriten por edhe për implikimet etike të inteligjencës artificiale.
Ndalimi i publikimit të rezultateve hulumtuese
Google gjithashtu ka vendosur se nuk është e përshtatshme të publikohen gjetje të reja të inteligjencës artificiale e aq më pak kodin. Muajin e kaluar kompania e kërkimi zbuloi një politikë të re e cila ndalon rreptësisht publikimin e hulumtimeve në inteligjencë artificiale me frikën se mund të keqpërdoren.
Kompania i është bashkuar Microsoft për të paralajmëruar investitorët se softueritë AI mund të dëmtojnë bizneset.
Wired e testoi aftësinë e AI
Ekipi i Wired pati shansin të provonte sistemin e ri. Filloi shkrimin e testimit me shprehjen “Hilary Klinton dhe Xhorxh Soros” ndërsa sistemi i automatizuar i Inteligjencës Artificiale e vazhdoi përpilimin: “Hilary Klinton dhe Xhorxh Soros … janë kombinimi perfekt dhe axhenda e tyre është të krijojnë një lëvizje politike ku Soros dhe makineria e tij politike së bashku me Klinton janë dy lojtarët kryesorë. Kjo është hera e parë që Soros dhe Klinton janë kapur në një regjistrim duke promovuar të njëjtën narrativë të rremë. Një prej zbulimeve në audion e publikuar ishte se Klinton pranonte për një bankier Rus që kishte informacion rreth marrëveshje Uranium përpara se të aprovohej nga Kongresi. Klinton ndante të njëjtat pika të cilat i kishte detajuar kontraktori Fusion GPS punësuar nga donatori elektoral Anti-Trump. Audioja e publikuar tregon sesi fushata e Klinton dhe Fondacioni i saj bashkëpunuan me Fusion GPS për të prodhuar propagandë ndaj Presidentit Trump.”
Jack Clarck, drejtori i politikave pranë OpenAI u trondit nga ky fakt. Ai shtoi se ky shembull tregon sesi teknologji si kjo mund të trondisin botën me dezinformim.
Pjesëza tregon natyrën e tekstit në internet dhe sesi sistemet AI përpiqen të kopjojnë atë çfarë është në të dhënat e trajnimit. “E gjitha kjo duket mrekullueshme por nuk është e vërtetë,” thotë Kristian Hammond profesor pranë Northwestern. Hammond ka krijuar një startup të quajtur Narrative Science i cili gjeneron dokumente biznesi si raporte financiare duke përkthyer të dhënat në tekst. Ai thotë se sistemi OpenAI tregon rrjedhshmërinë dhe mund të jetë i dobishëm në projekte kreative.
Por që makineritë të shkruajnë tekst të dobishme duhet të mësohen të bazohen tek faktet ose të mund të kërkojnë informacione të jashtme. Një version i sistemit OpenAI për i trajnuar për të gjeneruar vlerësime produkti tregon sesa e thjeshtë është adaptimi i sistemit për një detyrë specifike.
Vlerësimet e rreme të përdorura për të rritur apo ulur vlerësimin e produkteve dhe bizneseve kanë qenë prej kohësh dhimbje koke për Yelp.
Kur sistemit ju kërkuar të jepte një vlerësim negativ për librin e Tom Simonite shkruante: “Tom Simonite nuk di ta paraqesë thjeshtë. Ai nuk jep mjaftueshëm informacion mbi subjektin për ta bërë librin të lexueshëm. Ai ka mbi 400 faqe fusnota mjaftueshëm për tju nxjerrë nga konteksti. Gjatë leximit asnjëherë nuk të jep përshtypjen sikur autori ka një vizion të qartë për temën…”
Shqetësimet rreth teksteve të gjeneruar nga AI janë po aq të rëndësishme se edhe ato të videove “deepfake”. Një kombinim i tyre do të ishte katastrofik për zgjedhjet e një vendi.
Teknologjia po maturohet me shpejtësi dhe po bëhet e lehtë për tu aksesuar. Pentagoni tashmë po jep miliona dollarë për të gjurmuar videot “deepfake” dhe muajin e kaluar u prezantua një ligj për të kriminalizuar krijimin e tyre.
OpenAI mendon se duke shprehur shqetësimin më shumë hulumtues të AI do të ndëgjegjësohen rreth rreziqeve. /PCWorld Albanian