Il commento di oggi

Artificiale

intelligenza artificiale-1

La battuta è che non si deve avere paura dell’intelligenza artificiale, bensì della stupidità naturale. Ma, fra articoli di fantascienza a sfondo horror e l’entusiasmo per potere delegare la scrittura dei compiti a casa e degli articoli a un computer, quel che colpisce è l’assenza di sensibilità politica, il buio di consapevolezza su cosa quel genere di problema comporta. Che non è mettersi in gara con Isaac Asimov a chi la immagina più fantastica o più tragica, bensì valutare se sia opportuno che un provvedimento del garante della privacy collochi l’Italia accanto a Cina, Corea del Nord e Russia, chiudendo gli accessi a una delle applicazioni AI (artificial intelligence), ovvero Chat Gpt.

Di cosa si deve avere paura? Il garante ha rilevato un trattamento opaco dei dati personali, a fronte di una capacità elevata di ciucciarli via. Ho l’impressione sia un rilievo a fondamento più analogico che digitale, ovvero la rispondenza a leggi e regolamenti, laddove, comunque, tutto quel mondo di applicazioni e interazioni non fa che costantemente portare via i dati personali. Cosa che, in alcuni casi, si è felici che avvenga: la piattaforma che uso per comprare libri mi fornisce suggerimenti e mi dà indicazioni su edizioni e lingue che non potrei raggiungere. In altri casi siamo nel criminale, come la rivendita di profilazioni. Fin qui, tutto sommato, ce la possiamo vedere fra il commerciale e il penale.

Però c’è anche la grandiosa potenza che AI può portare nel mondo connesso. Si deve averne paura? Dipende. Potrebbe essere utile in talune ricerche scientifiche e mediche, grazie all’enorme memoria e capacità di calcolo. Anzi, una delle cose che una regolamentazione dovrebbe imporre è proprio lo standard di interoperabilità, di modo che nessuno possa provare a portarsi via o bucare il pallone intelligente. E se la potenza superasse l’intelligenza umana? Sarebbe una creazione umana. E se una volta accumulati dati e interazioni l’AI sviluppasse anche sinapsi capaci di darle una “coscienza”? È uno sfondo adatto al citato Asimov o al grande Philip K. Dick (androidi e “Blade Runner”), ove il punto di contatto (facciamo scongiuri) era la consapevolezza della morte. Non lo sappiamo, può darsi accada, ma resto convinto che puoi imitare i poeti ermetici dopo avere letto l’ermetismo, non prima, Picasso dopo Pablo, non prima.

Insomma, il pericolo vero e immediato non è tanto che le macchine scappino di mano, ma che scappino quelli che hanno le macchine in mano. Perché tutto quel sistema, nato inseguendo una specie di ideale digito-libertario, ha generato l’opposto, è in mano a pochissimi, la cui potenza economica supera quella di molti Stati nazionali. Epperò sappiamo che innovazione e avanzamenti sono favoriti dalla concorrenza, che richiede trasparenza e monitoraggio, impossibili dove le concentrazioni diventano troppo forti e capaci di abusare del proprio potere. E noi qui stiamo. Questo è il problema. E la fortissima capacità d’inquinamento civile e democratico, mediante diffusione di notizie false rese verosimili, esclude che la faccenda si dirima con le buone intenzioni e le promesse di bontà.

In altre parole, servono regole. E qui arriva il nodo politico: sull’AI, come sulla carne coltivata, uno Stato nazionale può decidere di farsi fuori con le proprie mani, ma non ha la forza di metterle su un sistema così non localizzato e potente. E siccome le forze del male sono sempre in agguato, bisogna dotarsi della forza necessaria. Il che comporta regole sovranazionali e, se possibile, internazionali. Noi abbiamo l’Unione europea, che discute da tempo il tema, e relazioni commerciali occidentali. Quella è la sede. Ma non per un convegno di studi, bensì per delega di sovranità ed elaborazione di regole e strumenti, che hanno aspetti tecnici, ma sostanza tutta politica. Il guaio è che la politica non c’è. Ignora. E si torna al punto di partenza: occhio alla stupidità di chi pensa che proibendo ricerca e mercato si ottenga altro che immiserimento.

Davide Giacalone, La Ragione 7 aprile 2023

www.laragione.eu

Condividi questo articolo