Lamæntinus

Cose di cui francamente nessuno sentiva il bisogno

I video di Google Veo 3, modello AI rilasciato da pochi giorni, sono obiettivamente impressionanti, tanto per la qualità visiva, quanto (e forse soprattutto) per la capacità di sincronizzarvi un audio credibile. Più a fondo, se si immagina che tutto parte da un prompt, generico, e che è poi l’AI a costruirne (o dedurne) un piccolo script, allora davvero si inizia ad assaporare l’abisso. Il fraintendimento generale, assai periglioso, è tutto qui.

Che le AI siano ormai in grado di sostituire buona parte del nostro fare è abbastanza ovvio. Quel che ancora non sanno fare, presto lo sapranno. Il problema, enorme, è e resta nel pensare. Per chi lavora nella produzione testuale questo è un nodo sensibile e critico: in maniera dilagante assistiamo oggi non solo alla produzione di testi mediante AI, ma anche alla progettazione di pensiero, ex novo. Delegare le nostre capacità-logico argomentative a un soggetto altro, umano o macchinico che sia, senza nemmeno filtrare con opportuno senso critico, diverrà una abitudine sconcertante, i cui risvolti sociopolitici – ma in fondo anche antropologici – sono inquietanti.

Avete presente la distopia di Wall-E (Andrew Stanton 2008), che immagina un mondo in cui sono tutti obesi perché hanno smesso di camminare, ché tanto ci sono le macchine che lo fanno per loro? Ecco, qui rischiamo invece di avere un mondo di palestrati che però se gli chiedi che cosa vogliono per cena devono chiedere a ChatGPT. Non sanno quel che vogliono (saper volere è una forma elevata del pensiero). Non vedono al di là delle proprie polveri proteiche.

Questo timore, quello di perdere la capacità di ragionare, mi sembra ben espresso dal modo in cui l’immaginario ha immediatamente sussunto Google Veo 3, con la solita forma di panico entusiasta (ossimoro voluto) che durerà giusto il tempo del rilascio del prossimo modello (cioè a breve, visti i tempi insensati con cui ormai si susseguono gli aggiornamenti, veri o presunti). Sin dai primissimi video di prova sono iniziati a circolare contenuti in cui personaggi AI-Generated, estremamente realistici, “recitano” la parte dei frustrati consapevoli di essere frutto di prompt. Siamo noi dei prompt? Qualche simpaticone deve aver pensato fosse una buona idea replicare un pattern ideologico che il cinema, naturalmente, aveva già ben sperimentato. Si pensi al caso seminale e nostrano di Nirvana, Gabriele Salvatores 1997, in cui i personaggi di un videogioco si avvedono di essere tali.

Nasce così la prompt theory, che – per estensione – interroga anche noi stessi. E se anche noi alla fin fine non fossimo che dei prompt? Mi sembra un camouflage di più vecchie “teorie” come quella, abusata, della simulazione, che ha sancito il successo popolare e accademico di filosofi come Nick Bostrom. Roba, mi si lasci dire, di una superficialità tale da far ridacchiare. Almeno quando – purtroppo spesso – incagliata in misere speculazioni da fantascienza low budget, à la Matrix, per intenderci (uno dei film che ho amato di più nella vita, non a caso vedendolo in adolescenza).

Ci sono però tre sviluppi autenticamente interessanti della prompt theory:

  1. Ogni “evoluzione” dell’AI ci porta sempre allo stesso punto: il raggiungimento della singolarità. La qual cosa ha l’odore di una profezia che si autoavvera, e la dice lunga sull’asimmetria che c’è fra progresso tecnologico e formazione di nuovo pensiero umano-umanistico ad esso associato.
  2. L’idea di soggetti virtuali promptati per fingere di avere una autocoscienza che suggerisca loro di essere ingabbiati in un mondo senza via di fuga è un riflesso di uno stato di ansietà generalizzato, che molto racconta della nostra attuale condizione sociopolitica.
  3. Il ripiegamento della prompt theory su di noi, la domanda che arriverà presto (e se non fossimo noi niente più che dei prompt), può avere delle ricadute stimolanti nell’ambito delle delle filosofie del linguaggio e della mente, come in generale già ce l’hanno, a mio avviso, tutti gli LLM (sostengo dall’inizio, invero, che il nostro stesso linguaggio possa funzionare, di fatto, come quello di ChatGPT, da un punto di vista stocastico).

Due conclusioni:

  1. Attendo con ansia (è questione di giorni, o di ore) i video di gente che per davvero si finge prompt. D’altro canto, se Google Veo 3 “gira” materiale così realistico, che cosa impedisce a me di prendere in mano lo smartphone e di girare materiale che poi spaccerò per AI-based? Una inversione di tendenza che diverrà meme, e poi verrà dimenticata (quando invece potrebbe essere interessante). Perché non lo faccio io? Non ho molta voglia, ma mi basta scriverlo qui.
  2. La delegazione sempre più massiva del pensiero produrrà uno spietato evoluzionismo della ragione. Chi preserverà con orgoglio le proprie sinapsi sopravvivrà, gli altri – forse – anche, ma sempre più schiacciati.

+

Lascia un commento