Cassandra Crossing/ IA: ragionare usando i dati?

(493) — le tecniche di intelligenza artificiale vengono più spesso abusate che usate.


Cassandra Crossing/ IA: ragionare usando i dati?

(493) — le tecniche di intelligenza artificiale vengono più spesso abusate che usate.

6 gennaio 2022 — Come i 24 incanutiti lettori di Cassandra sanno bene, l’Intelligenza Artificiale e le sue applicazioni sono state oggetto dei pensieri di Cassandra da lungo tempo.

Adesso che sono tra noi, l’umore della vostra profetessa preferita alterna percezioni catastrofiche alla Skynet con reminiscenze delle disavventure di K. tra Processo e Castello.

Ma la vera responsabilità dell’abuso del termine, e soprattutto dell’utilizzo improprio dell’Intelligenza Artificiale deve essere diviso equamente in tre parti.

In primis è da quasi un secolo (per l’esattezza dal 1956) che la ricerca studia la questione, ottiene risultati preliminari e promette cose mirabili nel prossimo futuro. Il pubblico diventa familiare con un termine così accattivante, e si sa, non sempre distingue l’immaginazione dalla realtà.

In secundis (vi piace il latino maccheronico?) perché la narrazione, partendo dal mito e dal romanzo per arrivare al grande schermo, al piccolo schermo e ad Internet, ne ha fatto un soggetto tanto bello quanto interessante, e si sa, nella mente delle persone immaginazione e realtà coesistono in ogni momento.

In tertiis perché parlare a buzzword e vendere fuffa è da sempre fonte di soldi, potere e reputazione.

E così quando, dopo i Motori di Inferenza e le Reti Neurali, il Deep Learning, una nuova applicazione dell’intelligenza artificiale, ha iniziato a produrre in maniera semplice risultati interessanti, ecco che tutti ci si sono buttati a pesce.

E se la narrazione ne ha tratto ulteriore vantaggio, l’applicazione pratica ha iniziato ad essere stiracchiata ed estesa in tutti i campi possibili, con la speranza di generare nuovi business.

E questo è un pericolosissimo sproposito.

Il Deep Learning, e se è per questo anche le Reti Neurali, non hanno niente a che fare con l’“Intelligenza”.

L’intelligenza “vera”, che i ricercatori di intelligenza artificiale chiamano “Intelligenza Artificiale Generica” non richiederà forse autocoscienza (lasciamo la questione ai filosofi) ma certamente richiede, oltre alla conoscenza, sia comprensione che logica.

E le Reti Neurali, come gli algoritmi di Deep Learning, sono certamente privi di ambedue.

Ora, se nutrire (con molta, molta, molta fatica) i Motori di Inferenza di “regole” certamente li rende solutori “logici” di problemi, perché possono fare “backtracking”, ovvero spiegare come sono arrivati ad una certa conclusione, gli algoritmi di Deep Learning sanno solo dirti se una foto rappresenta un gattino o no, e questo solo dopo essere state nutrite di moltissime foto di gattini e non-gattini, con la soluzione scritta dietro.

Ma non possono spiegarti il “perché”; non applicano intelligenza, non conoscono la “Gattinicità”, né tantomeno altre categorie logiche.

Quindi, se è utile e ragionevole applicare i sistemi di Deep Learning in questioni adatte, anche molto importanti, come il supporto alla refertazione di tumori, è assurdo e pericoloso applicarli in campi dove una “vera intelligenza” è necessaria, illudendosi di poterla rimpiazzare ed ottenere anche risultati più esatti e più economici.

Sentenze di tribunale, colloqui di selezione del personale, possibilità di reiterazione di un crimine sono questioni “evidentemente” al di fuori delle capacità un sistema di Deep Learning, anche se purtroppo è possibile, anzi facile, costruirne uno “tarocco” che possa essere impiegato in questi settori.

Ed il mondo purtroppo è pieno di venditori, magari anche parzialmente o totalmente in buonafede, di olio di serpente.
Tanto chi controlla i risultati? Chi può dire se il “mariuolo” si è davvero pentito?

Dai dati, e tra l’altro solo da quelli “buoni”, possiamo, e dobbiamo imparare, ma come abbiamo sempre fatto.

I dati, e solo quelli buoni, possono essere categorizzati con logica ed offrire spunti per migliori categorizzazioni, farci scoprire “dati entro altri dati”.

Ma i dati non possono rimpiazzare un’intelligenza, i dati non possono “ragionare” al posto di degli umani, od almeno di quegli umani che si prendono il disturbo di farlo.

By Marco A. L. Calamari on January 7, 2022.

Canonical link

Exported from Medium on January 2, 2024.