Che un algoritmo sviluppi abilità indipendentemente dai desideri dei suoi programmatori è una vittoria o l’anticamera dell’autodistruzione dell’umanità? Di solito la mediocre verità sta nel mezzo
Quanto è strano l’homo digitalis. Basta un’intervista in cui un pezzo grosso di Google, James Manyika, dichiara che l’intelligenza artificiale è un’entità fuori controllo, una black box imprevedibile con tratti schizofrenici, ed eccoci tornare indietro ad atavici timori di 200 anni fa e oltre.
Sostituirsi a Dio è un antico sogno umano, Peccato che sia sempre finito malissimo. Ma ogni epoca ha i suoi scienziati pazzi e una letteratura che li smaschera. Di solito si tratta di epoche che esaltano il progresso scientifico: così fu per il dottor Frankenstein, romanzo di Mary Shelley, nato in piena epoca positivista, quando si pensava che la scienza avrebbe risolto ogni problema. Una figura che tendiamo a portarci dietro, ammodernandola, come nel caso di Edward Mani di Forbice, con un Johnny Depp che fece impazzire le ragazze dei primi anni Novanta. Il Novecento è stato il secolo foriero di un’idea di eugenetica che tutti vorremmo dimenticare, ma ci troviamo dentro anche tante aspiranti entità divine tra chirurghi plastici (La morte ti fa bella), ingegneri robotici e genetici, creatori di figure come Terminator, Robocop, o Roy Batty, androide di Blade Runner simbolo del cyberpunk, quello che vedeva i raggi B balenare vicino alle porte di Tannhäuser, e chissà che cosa si era fumato.
Ora siamo nell’epoca degli dei che dotano le cose di un cervello e ci fa paura. Una paura che la fantasia degli sceneggiatori di Black Mirror ha saputo tradurre alla perfezione. Alla base c’è l’eterna brama di controllo che, se già è difficile fare accettare al cervello umano, figuriamoci che cosa significa provarci con il non umano, si tratti di un’orsa o di una macchina che parla e scrive da sola. Manyika, che non è esattamente uno smanettone anfetaminico ma il Senior Vice President di Google ha dichiarato tra il serio e il faceto in un’intervista alla CBS del 16 aprile che un loro sistema di Intelligenza Artificiale ha imparato da solo il bengalese, anche se non era addestrato a conoscere la lingua: «Abbiamo scoperto che con pochissimi suggerimenti in questa lingua, ora può tradurre tutto il bengalese».
Il fatto è che non sappiamo come prenderla, sta storia. Che un algoritmo sviluppi abilità indipendentemente dai desideri dei suoi programmatori è una vittoria o l’anticamera dell’autodistruzione dell’umanità? Un dilemma che ricorda un fatto buffo del 1992. Un politico di allora raccontò a qualche talk show che sua figlia di 3 anni aveva battezzato il suo orsacchiotto Tangentopoli. E si aggirava per casa accarezzando questo peluche e chiamandolo “Tangentopolino”. Ma come faceva la bambina ad aver appreso questo concetto? Non lo aveva appreso, ovviamente, elaborava a modo suo un linguaggio che saturava le sue orecchie. Ora, è alquanto probabile che intere brigate di programmatori e sviluppatori di stanza in Asia parlino e scrivano in bengalese. Avendo a disposizione milioni di conversazioni, anche il cervello più elementare apprenderebbe la lingua. O no?
Oppure Google inizia a sentirsi Dio e gioca la sua parte nel marketing dell’inconoscibile con diabolica astuzia. No, perché poi è intervenuto anche il CEO di Google. Uno che probabilmente il bengalese lo mastica, visto che si chiama Sundar Pichai. E qui, a voler esser cacadubbi verrebbe da pensare a una pattuglia di sviluppatori lecchini che gli ha voluto fare una sorpresa. Lui dice: «C’è un aspetto nell’Intelligenza Artificiale che noi del campo (Ah, lei è del campo?) chiamiamo black box, un contenitore di cui non capisci completamente il contenuto, non capisci le reazioni, ci stiamo lavorando». A quel punto l’intervista prende una piega sfidante e il giornalista diventa indignato speciale che fa domande tipo «ma non sarete mica matti a mettere in rete una roba che non sapete come funziona?». La risposta di Pichai, più o meno è «beh ma tanto mica capiamo tutto anche della mente umana».
Imprudenti o visionari? Lo sviluppo dell’intelligenza artificiale generativa ha già portato a capire che questa può essere una catena di montaggio per notizie false, deepfake e perfino strumento per battaglie politiche viziate. Insomma è un buon assistente di solito, però soffre di allucinazioni e Pichai serenamente lo ammette: «Nessuno in effetti ha ancora risolto i problemi di allucinazione dell’AI. In tutti i modelli però è previsto come problema. La cura consiste nello sviluppo di livelli di sicurezza più robusti prima di implementare modelli i più evoluti». Il che, se capiamo bene, dovrebbe voler dire che ci vogliono delle regole. Le ha chieste perfino Elon Musk, che alle regole è piuttosto allergico di natura. Vuole una pausa dallo sviluppo, dice. Poi c’è chi le regole se le è già fatte, però in Cina.
Sii il primo a commentare