Può l’intelligenza essere artificiale ?

È questa una domanda che nasce dal diluvio di notizie che, come una tempesta mediatica, invade progressivamente i settori più disparati dell’informazione mondiale.

La domanda è sottilmente ambigua e scivolosa perché utilizza due termini che sono, da sempre, all’incrocio fra la filosofia e la scienza e che non possono essere definite in maniera univoca ed esauriente .

D’altra parte un blog che si etichetta come “uomo e tecnologia Uomo e tecnologia – Per un umanesimo tecnologico che ricomponga l’alleanza fra natura e cultura” è necessariamente coinvolto

fortemente in tutte le problematiche legate all’intelligenza artificiale.

Affrontiamo dunque la problematica legata allo sviluppo dell’Intelligenza Artificiale tenendo presente che ci sono dei paragrafi più tecnici che possono essere anche saltati senza però ignorare che sono gli sviluppi più recenti e più tecnici  che evidenziano un salto qualitativo significativo nelle capacità che le macchine, dotate di questi software di ultima generazione, possono  esprimere.

  • L’intelligenza
  • Breve storia
  • La cibernetica e l’interazione con le macchine
  • Reti neurali
  • Machine Learning
  • Il problema dei dati
  • Apprendimento supervisionato e non supervisionato
  • Le applicazioni attuali dell’intelligenza artificiale
  • Conclusioni

L’intelligenza

Fino agli anni Ottanta la comunità scientifica sosteneva con convinzione l’esistenza di un’unica intelligenza.

Con La teoria delle intelligenze multiple Gardner segna un punto di totale rottura con quello che fino a quel momento veniva affermato.

Gardner nel 1983  sostenne che ogni essere umano possiede intelligenze multiple ed è errato e riduttivo attribuire al cervello umano una sola intelligenza. Secondo l’autorevole professore della Harvard University la concezione di intelligenza come fattore unitario e misurabile è priva di fondamento e deve essere sostituita con una definizione più dinamica ed articolata in sottofattori differenziati che definiscono 7 categorie di intelligenza così etichettate.

Studi più recenti dello stesso Gardner l’hanno portato ad aggiungere almeno altri due tipi di intelligenze, portandole quindi a nove.

Quindi cos’è l’intelligenza e cosa si intende con il termine artificiale connesso all’intelligenza ?

Al di là dei dettagli sul numero e sulle definizioni differenziate di intelligenza risulta evidente che, in generale, quando si parla di intelligenza ci si riferisce quasi sempre alla sottospecie di intelligenza logico matematica e se si attribuisce l’etichetta di artificiale si evidenzia che per intelligenza artificiale intendiamo quella che potrebbe, eventualmente, emergere da una macchina che sapesse “maneggiare” simboli, numeri e regole logico-matematiche e tutto questo porta allo strumento che, per eccellenza, gestisce questi processi a livelli via via più complessi e più veloci e cioè il computer.

Diciamo subito che bisogna porre molta attenzione all’attributo “artificiale” perché già qui bisogna poter considerare che si opera una artificiosa e ingiustificata separazione fra tipologie di intelligenza che sono in maniera netta più o meno legate al corpo.

Se si accetta in qualche misura la teoria delle intelligenze multiple risulta evidente che le intelligenze corporee, interpersonali, cinestetiche, definite spesso con il termine “empatiche” , sono strettamente legate al corpo e nessuna intelligenza artificiale, anche la più avanzata, ha un ancoraggio al corpo perché la macchina, il computer non è certo assimilabile al corpo.

Su questo aspetto sarebbe utile approfondire con Antonio Damasio, neurologo di fama mondiale, le scoperte legate alla connessione corpo-mente.

Antonio Damasio – Wikipedia

Ma questa, capisco,  è anche una affermazione da accettare fino “a prova contraria” perché presuppone che mai una macchina, anche la più sofisticata, potrà mai essere equivalente ad un corpo come lo intendiamo, intuitivamente, noi.

Accettiamo quindi la definizione riportata dal dizionario Oxford e comunemente riconosciuta anche da colossi come Google che descrive l’intelligenza artificiale come “ La teoria e lo sviluppo di sistemi informatici capaci di svolgere compiti che normalmente richiedono intelligenza umana, come la percezione visiva, il riconoscimento vocale, i processi decisionali e la traduzione da e verso lingue differenti” .

Oggi la definizione è già più ambiziosa :

L’intelligenza artificiale (IA) è l’abilità di una macchina di mostrare capacità umane quali il ragionamento, l’apprendimento, la pianificazione e la creatività.

L’intelligenza artificiale permette ai sistemi di capire il proprio ambiente, mettersi in relazione con quello che percepisce e risolvere problemi, e agire verso un obiettivo specifico. Il computer riceve i dati (già preparati o raccolti tramite sensori, come una videocamera), li processa e risponde.

I sistemi di IA sono capaci di adattare il proprio comportamento analizzando gli effetti delle azioni precedenti e lavorando in autonomia.

Occorre allora ripercorrere brevemente la storia di questa disciplina che ha subito un incredibile sviluppo negli ultimi anni.

Breve storia

L’Intelligenza Artificiale (IA) è una tecnologia recente. Si parte dagli anni Cinquanta con Alan Turing. ll suo lavoro ebbe una vasta influenza sulla nascita della disciplina dell’informatica, grazie alla sua formalizzazione dei concetti di algoritmo e calcolo mediante l’omonima macchina, che a sua volta costituì un significativo passo avanti nell’evoluzione verso il moderno computer. Per questo contributo è solitamente considerato il padre della scienza informatica e dell’intelligenza artificiale, da lui teorizzate già negli anni trenta del ‘900. Turing introdusse anche un metodo per verificare il grado di intelligenza di una macchina. Questo metodo è ancora oggi noto come Test di Turing.

Col tempo, le aspettative sulle applicazioni dell’Intelligenza Artificiale iniziarono a crescere: nel 1957, ad esempio, Herbert Simon stimò che nel giro di dieci anni la comunità scientifica avrebbe sviluppato un’intelligenza artificiale in grado di competere con i campioni di scacchi.

Tuttavia, poiché i macchinari dell’epoca non disponevano di una capacità computazionale adeguata, questa e altre aspettative non furono mantenute e ciò portò alla frammentazione dell’Intelligenza Artificiale in distinte aree basate su teorie diverse. In quel contesto emersero due paradigmi principali: Intelligenza Artificiale Forte e Debole.

La teoria dell’intelligenza artificiale forte sostiene che le macchine siano in grado di sviluppare una coscienza di sé e questo paradigma è supportato dal campo di ricerca nominato intelligenza artificiale generale.

Il paradigma dell’intelligenza artificiale debole, in opposizione al primo, ritiene possibile sviluppare macchine in grado di risolvere problemi specifici senza avere coscienza delle attività svolte. In altre parole, l’obiettivo della IA debole non è realizzare macchine dotate di un’intelligenza umana, ma di avere sistemi in grado di svolgere uno o più funzioni umane complesse.

L’intelligenza artificiale debole è una forma di intelligenza artificiale limitata all’esecuzione di compiti specifici ed in tal senso programmate .

Un esempio chiaro del modello Debole è un programma per giocare a scacchi.

 Diversamente dalle prospettive futuribili dell’Intelligenza Artificiale Forte, quella Debole non ha coscienza di sé e non presenta le abilità cognitive degli esseri umani, ma si focalizza sul problema da risolvere in un ambito specifico e, in quell’ambito, si dimostra intelligente, cioè in grado di agire.

Secondo Philip Agree (1997) gli scienziati della prima ondata dell’intelligenza artificiale furono ispirati da una certa rappresentazione delle idee di Cartesio facendo però un salto epistemologico rispetto alla sua posizione .

Sostenevano che non solo la mente contempla la matematica, la mente stessa è matematica e la matematica della mente e precisamente l’operazione esplicabile dal cervello .

Tuttavia l’intelligenza computazionale di impostazione logicista o di carattere simbolico cognitivista non ebbe successi sufficienti . La mancanza di attenzione per il corpo e per l’intelligenza come incorporazione furono le probabili cause dell’insuccesso di quegli anni.

I primi programmi A.I. erano dei problem solver, ossia dei software  in grado di svolgere con efficacia il proprio compito ma si trattava prevalentemente di problemi semplici ( problemi giocattolo ).

Inoltre, questi software erano efficaci a svolgere alcune operazioni ma assolutamente non erano in grado di interpretare la complessità di un ambiente reale, né di risolvere problemi generali al di fuori del loro campo di conoscenza erano cioè solo in grado di risolvere solo quello specifico problema.

Negli anni ’90 l’intelligenza artificiale era ancora una materia di studio ai confini del fattibile. Gli unici campi di applicazione dell’AI erano i sistemi automatizzati robotici nei processi produttivi. Nelle aziende di servizio era praticamente inutile. Nel 1996 il supercomputer Deep

Blue dell’IBM vinse la prima partita a scacchi contro il campione mondiale russo Garry Kasparov. Questo evento conquistò un’enorme visibilità sui mass media, mostrando al mondo che l’intelligenza artificiale poteva sostituirsi all’uomo nel prendere le decisioni e risolvere anche problemi molto complessi.

Questo evento però rientra ancora nel campo dei problemi “giocattolo” perché la macchina vince perché attraverso la sua enorme capacità computazionale è capace di analizzare molto più in profondità l’albero delle mosse possibili che per un umano è più limitato.

Albero delle scelte Cos’è un albero di decisione? (edrawsoft.com)

Nel corso degli anni ’90 si passò dall’automazione alla IA debole. Gli algoritmi di intelligenza artificiale furono in grado di risolvere i primi problemi complessi, simulando la logica di ragionamento dell’uomo. Erano gli anni in cui il problem solving cominciava ad entrare negli ambienti lavorativi e aziendali.

La cibernetica e l’interazione con le macchine

Il progetto dell’intelligenza artificiale era affiancato fin dal principio da un altro modello di sviluppo delle macchine, quello della cibernetica, un campo di ricerche transdisciplinare, inventato da Norbert Wiener.

La cibernetica si proponeva di considerare le macchine come dispositivi indistinguibili da altri agenti organici. L’obiettivo della cibernetica era analizzare i dispositivi sotto il profilo della comunicazione e del controllo. Vi si rappresentava il controllo come un tipo particolare di comunicazione in cui era necessario non solo trasmettere un messaggio informativo, ma anche essere sicuri che l’altro agente avesse ricevuto ed eseguito l’ordine.

Secondo tale rappresentazione, esseri viventi e dispositivi meccanici potevano essere analizzati attraverso lo stesso schema scientifico di comportamento .

Il modello si basava sul funzionamento del feedback che permetteva all’agente che riceveva il messaggio di rispondere adattando il proprio comportamento all’input ricevuto dall’altro agente o dall’ambiente stesso. Vista da questa prospettiva, la capacità degli esseri viventi di adeguarsi all’ambiente per sopravvivere, attraverso un continuo processo di prova ed errore, poteva essere valutata in modo simile a quello delle macchine di obbedire agli ordini impartiti valutando ogni volta il risultato della scelta e modificandolo in caso di insuccesso in maniera tale da portare a termine lo scopo che veniva loro prefissato.

feedback in Vocabolario – Treccani

Tale conclusione, quindi, prometteva un abbattimento sostanziale della barriera che separava organico ed inorganico e faceva intravedere soprattutto la possibilità di un incontro, di una relazione , di un’integrazione tra viventi e macchine .

L’articolazione dell’interazione uomo macchina è stata l’eredità della cibernetica che ha avuto un maggiore impatto sull’intelligenza artificiale a lungo termine perché fu in grado di lanciare un metodo per la cattura dei modelli cognitivi umani necessari per l’evoluzione delle macchine e la loro progressiva autonomizzazione ed è questo progetto che porta agli algoritmi di Machine Learning che rappresentano la nuova ondata di grande successo dell’intelligenza artificiale.

                                 Reti neurali        

Sono modelli matematici composti da neuroni artificiali che si ispirano al funzionamento biologico del cervello umano.

I neuroni biologici interconnessi formano le nostre reti neurali cerebrali, quelle che permettono a ciascun individuo di ragionare, fare calcoli in parallelo, riconoscere suoni, immagini, volti, imparare e agire. Emerse quindi l’idea di poter replicare artificialmente il cervello umano, simulandone il funzionamento, attraverso delle reti neurali artificiali .

Una rete neurale di fatto si presenta come un sistema di processori “adattativo” in grado di modificare la sua struttura ,e cioè i nodi e le interconnessioni, basandosi sia su dati esterni, che riceve dai sensori, sia su informazioni interne, che sono già incorporate nel programma, e passando attraverso la rete neurale realizzano la fase di apprendimento e ragionamento.

 Le reti neurali artificiali sono strutture non-lineari di dati statistici organizzate come strumenti di modellazione: ricevono segnali esterni su uno strato di nodi (che rappresenta l’unità di elaborazione, il processore); ognuno di questi “nodi d’ingresso” è collegato a svariati nodi interni della rete che, tipicamente, sono organizzati a più livelli in modo che ogni singolo nodo possa elaborare i segnali ricevuti trasmettendo ai livelli successivi il risultato delle sue elaborazioni.

Modello modello: definizioni, etimologia e citazioni nel Vocabolario Treccani

In linea di massima, le reti neurali sono formate da tre strati (che però possono coinvolgere migliaia di neuroni e decine di migliaia di connessioni):

  1.  lo strato degli ingressi (I – Input): è quello che ha il compito di ricevere ed elaborare i segnali in ingresso adattandoli alle richieste dei neuroni della rete;
  2. il cosiddetto strato H – hidden (strato nascosto): è quello che ha in carica il processo di elaborazione vero e proprio (e può anche essere strutturato con più colonne-livelli di neuroni);
  3. lo strato di uscita (O – Output): qui vengono raccolti i risultati dell’elaborazione dello strato H e vengono adattati alle richieste del successivo livello-blocco della rete neurale.

Oggi nei laboratori di ricerca si sta già lavorando ai chip neuromorfici (che imitano il funzionamento del cervello umano)

Machine Learning

Uno dei pilastri dell’intelligenza artificiale è l’apprendimento automatico (Machine Learning), metodo di approccio generalmente statistico con cui si insegna alle macchine a comportarsi da esseri intelligenti.

Un algoritmo di apprendimento automatico è in grado di imparare dai dati e di costruire un modello per ogni specifico problema che gli si presenta.

Quindi questo programma è l’insieme composto da un algoritmo di apprendimento, un modello e una capacità di elaborare nuovi input.

Gli esseri umani costruiscono un modello della realtà che li circonda, un modello di ambiente, di persona, di città, di corpo, di società, di alimentazione e così via.

Il modello serve ad evidenziare le proprietà, le caratteristiche, che in quel contesto e per quel soggetto sono rilevanti ai fini della sopravvivenza o, più semplicemente, ai fini dell’ottimizzazione della prestazione che si vuole conseguire.

Capire creando un modello di realtà Cosa significa capire e perché capiamo la realtà che ci circonda – Uomo e tecnologia

Quindi per L’intelligenza artificiale il flusso di dati deve essere accompagnato dallo scopo che si intende raggiungere; nel caso del gioco è semplicemente la vittoria.

Attualmente i sistemi artificiali più promettenti sono quelli che riguardano processi algoritmici di machine learning applicati a grandi quantità di dati.

Il modo in cui un ambiente viene “compreso” dalla macchina è dipendente dal flusso di dati che sono interpretati dai sensori o mediante le conoscenze inserite da parte del programmatore relativamente a quel contesto.

A questo punto il programma dovrà ragionare su quale sia l’azione migliore per lo scopo da raggiungere e VALUTARE con un peso specifico quell’azione in modo da rinforzare o cambiare la scelta.

Il programma quindi realizza un albero delle scelte fatte come nodi di una serie di percorsi ed ogni nodo ha un coefficiente, un peso, che misura la sua efficacia ai fini del raggiungimento dell’obiettivo. Se quella scelta , a partire da quel nodo, ha portato ad un miglioramento verso l’obiettivo, allora il peso sarà alto, viceversa basso.

Albero delle scelte Cos’è un albero di decisione? (edrawsoft.com)

Questo processo è dinamico e complesso perché la propagazione dei pesi successivi può anche essere invertita e modificata con retroazione in presenza di un fallimento a seguire.

Il cosiddetto algoritmo di retropropagazione dell’errore (error backpropagation) modifica sistematicamente i pesi delle connessioni tra i nodi, così che la risposta della rete si avvicini sempre di più a quella desiderata .

È in questo senso che si dice che la macchina “IMPARA DALL’ESPERIENZA”.

Oggi è possibile per una macchina ricavare delle regole di un gioco semplicemente “guardando” lo svolgimento di migliaia o milioni di partite e questo è certamente un salto qualitativo forte nello sviluppo dell’intelligenza artificiale.

Il machine learning utilizza algoritmi che imparano dai dati in modo iterativo. Permette, ad esempio, ai computer di individuare informazioni anche sconosciute senza che venga loro segnalato esplicitamente dove cercarle.

Il problema dei dati

I dati che il programma riceve dall’ambiente non sono però tutti uguali perché possono essere strutturati o non strutturati perché una cosa è avere i dati da una indagine con le varie voci di un formulario, quindi strutturati,  e altra cosa è avere le risposte libere delle reazioni in un social network , dati non strutturati.

La raccolta dei dati è un primo aspetto che può evidenziare la presenza di pregiudizi e questo aspetto introduce il problema del ruolo dell’uomo nella compilazione non neutrale del formulario dove, ad esempio se alla voce sesso si può solo scegliere fra maschio e femmina si riduce la possibilità di rappresentare adeguatamente il ventaglio delle possibilità .

Nella raccolta di dati destrutturati il problema diventa ancora più rilevante.

Le attività dell’intelligenza artificiale come disciplina scientifica sono inquadrate dal gruppo di esperti dell’unione europea in tre aree principali percezione, ragionamento/processo e attuazione.

Secondo questa definizione i sistemi di intelligenza artificiale si dividono in due grandi aree:

– Tecniche basate sul ragionamento

-Tecniche basate sull’apprendimento.

Le prime sono quelle che hanno bisogno di un metodo per la rappresentazione delle conoscenze.

I dati cioè devono essere precedentemente organizzati in conoscenze in modo da essere oggetto delle regole prestabilite del ragionamento.

Il secondo gruppo di tecniche invece è basato sull’apprendimento con l’apprendimento automatico (machine learning), le reti neurali, il Deep learning, gli alberi decisionali e altri strumenti.

Queste tecniche possono intervenire anche quando i problemi da risolvere sono difficili da definire precisamente o il cui metodo di soluzione non può essere descritto con regole di ragionamento simboliche .

Si usano per la comprensione del linguaggio, la visione artificiale, la previsione dei comportamenti e il campo principale di utilizzo di questi metodi è relativo a quando il processo fa riferimento a dati destrutturati.

Alcune di queste tecniche di intelligenza artificiale si dicono a “scatola nera” e sono come degli oracoli quando fanno pronostici, perché non possono offrire una giustificazione esauriente delle motivazioni che determinano gli esiti dei loro calcoli, ma sono considerate però molto efficienti in particolare quando l’ambiente della presa di decisione dipende da dati destrutturati e non consente una descrizione né della situazione né precisamente dell’obiettivo che si vuole raggiunge.

Risulta evidente che questi sistemi aprono un dibattito di carattere etico e politico circa quali siano le applicazioni che consentano il loro utilizzo.

L’uso dei programmi di intelligenza artificiale deve quindi garantire di esplicitare chiaramente obiettivi e modalità di intervento sull’ambiente, soprattutto quando le decisioni prese per risolvere i problemi o fornire le raccomandazioni riguardano questioni di natura sociale e politica e possono avere impatto su giustizia sociale e tutela dei diritti umani.

Problema pregiudizi big data  Big data e Confirmation Bias: i rischi – Big Data 4Innovation

Apprendimento supervisionato e non supervisionato

Nel caso dell’apprendimento supervisionato le correlazioni che il programma deve cercare sono già conosciute dai programmatori che cercano di insegnarle alla macchina attraverso una serie di esempi in cui evidenziano le variabili che devono essere messe in relazione per ottenere il risultato desiderato.

Ad esempio se l’algoritmo deve riconoscere se un’email è spam oppure no deve essere addestrato con una serie di esempi in cui è chiaro il ruolo dei dati che provengono da email di spam .

Questo tipo di algoritmo impara dai dati del campione ed è evidente che se per l’addestramento ci sono esempi sbagliati questi errori sono ereditati dal sistema e propagati .

Ma se i dati sono molto complessi, è impossibile mappare tutte le potenziali correlazioni per stabilire quali abbiano più senso rispetto alle altre quindi l’algoritmo viene orientato attraverso un learning bias, ovvero si tratta di una preferenza a considerare certi dati per la correlazione e tralasciarne altri.

Nell’addestramento non supervisionato non c’è in partenza un obiettivo specifico, non è quindi necessario lavorare sull’insieme di addestramento ma questo implica che l’algoritmo non avendo un obiettivo specifico, cerchi nei dati delle correlazioni che possono essere regolari e significative e questo implica una scelta umana.

Tale necessità presuppone, comunque, la costruzione di griglie di significato o strutture interpretative alle quali l’algoritmo viene implicitamente vincolato dal lavoro del programmatore e quindi è condizionato anche inconsapevolmente dall’uomo.

Più concretamente, la parola significato indica ciò che si vuol dire pronunciando una specifica parola o una frase e quindi una risposta di un utente ad una domanda, ad una sollecitazione, viene interpretata attribuendole un significato che non è neutrale ed oggettivo ma legato al contesto culturale del programmatore.

significato in Vocabolario – Treccani

Queste scelte possono essere utili per scoprire la correlazione tra le malattie , suggerire la scelta di un film , di un prodotto da acquistare sulla base degli indicatori di somiglianza , ma restano ancorate alla soggettività di chi le definisce e i risultati che ne derivano non possono essere considerati completamente affidabili, quindi la neutralità del processo algoritmico è una chimera senza fondamento.

Apprendimento supervisionato e non supervisionato  Supervised learning, cos’è, apprendimento supervisionato – AI4Business

Le applicazioni attuali dell’intelligenza artificiale

-Riconoscimento facciale

Il riconoscimento facciale è un metodo biometrico di identificazione di un individuo che funziona confrontando i dati di acquisizione in diretta o un’immagine digitale con il record memorizzato per quella persona. Un sistema fino ad oggi utilizzato in ambito security ma che si appresta a rivoluzionare il mondo degli smartphone, i pagamenti digitali, i sistemi di accesso alle app e tanto altro, grazie all’integrazione di nuovi algoritmi di intelligenza artificiale e alla rapida evoluzione delle reti neurali.

Il riconoscimento facciale  viene anche utilizzato per il controllo sociale in particolare nei regimi politici autoritari per avere il controllo dei i movimenti dei cittadini attraverso una capillare diffusione di telecamere di sorveglianza.

-Chat GPT 

ChatGPT è un modello di linguaggio di grandi dimensioni sviluppato da OpenAI. Utilizza una tecnologia di apprendimento automatico per generare testo in modo autonomo, imitando il linguaggio umano. Può essere utilizzato per una vasta gamma di applicazioni, tra cui la generazione automatica di testo, la risposta alle domande e il completamento di frasi.  Grazie alla sua capacità di generare testo in modo plausibile, ChatGPT rappresenta un importante passo avanti nell’intelligenza artificiale.  

ChatGPT è stato creato con un procedimento chiamato Deep Learning e viene addestrata fornendole grandi quantità di testo. Durante l’addestramento, la rete neurale ha imparato a riconoscere trame e associazioni nel testo, il che permette a ChatGPT di generare risposte appropriate a domande e completare frasi in modo coerente.

ChatGPT non è il solo sistema di intelligenza artificiale applicata: esistono siti come  DallE2, Midjourney, Stable Diffusion che trasformano testi in immagini, come se fossero pittori su commissione.

-l’intelligenza artificiale in ambito sanitario

Tutte le grandi piattaforme digitali stanno muovendo passi nell’ambito dell’offerta di servizi di sanità.

Sono in corso molti progetti che coinvolgono migliaia di ospedali costruendo banche dati relative alla sfera sanitaria  attraverso i quali la Silicon Valley sta pensando di utilizzare  questa enorme fonte di dati per addestrare i SW di intelligenza artificiale per trovare nuove cure ed offrire nuovi servizi alla organizzazione sanitaria.

Integrando la scansione delle immagini le soluzioni di intelligenza artificiale utilizzate nell’imaging medico consentono a cardiologi e radiologi di far emergere informazioni pertinenti che possono aiutarli a identificare prima i casi critici, a fare diagnosi più accurate e potenzialmente a evitare errori, sfruttando l’ampiezza e la complessità di cartelle cliniche elettroniche. Uno studio clinico tipico può produrre set di dati di grandi dimensioni contenenti migliaia di immagini, portando a quantità incredibili di dati che necessitano di revisione. Utilizzando algoritmi di intelligenza artificiale, gli studi di tutto il settore sanitario possono essere analizzati per modelli e relazioni nascoste, che possono aiutare i professionisti dell’imaging a trovare rapidamente informazioni critiche.

 La salute è un punto cruciale ed estremamente delicato della personalità perchè attiene alla sfera profonda della nostra privacy e quindi i dati possono essere utilizzati in maniera distorta se in possesso di mani sbagliate come ad esempio le assicurazioni che potrebbero fare previsioni sulla propensione alle malattie e quindi condizionare l’entità dei premi.

– l’intelligenza artificiale in ambito farmaceutico

Migliorare l’efficienza clinica e accelerare la scoperta di farmaci decodificando milioni di dati rendendoli informazioni utilizzabili.

l’intelligenza artificiale può essere impiegata in diverse tipologie di ricerca:

  • sviluppo dei farmaci
  • scoperta di combinazioni terapeutiche
  • supporto per screening e diagnosi

La notizia del primo farmaco sviluppato con l’intelligenza artificiale risale all’inizio del 2020: si tratta del DSP- 1181, la prima molecola creata a scopo farmaceutico dall’intelligenza artificiale.

Due anni fa AlphaFold ha “lanciato” la biologia in una nuova era, dimostrando il ruolo trasformativo dell’Intelligenza Artificiale.  ProteinMPNN punta ora alla progettazione da zero di proteine finalizzate alla realizzazione di compiti specifici.

Conclusioni

Aspetti scientifici

La scienza trova le leggi generali dell’universo mentre con i big data non è, in generale, possibile ottenere leggi universali.

La scienza è un attività che parte dal fenomeno ed arriva alla teoria attraverso le misure fatte con esperimenti in condizioni rigorosamente uniformi .

 La teoria si esprime con leggi matematiche ed è in grado di dar conto anche di altri fenomeni ad essa riconducibili ma ha un ambito di applicazione circoscritto e pertanto deve essere falsificabile ovvero una teoria ha carattere scientifico soltanto quando è suscettibile di essere smentita dai fatti dell’esperienza.

Quindi la sequenza è :Fenomeno , Ipotesi esplicativa, esperimento di conferma/smentita.

Se l’ipotesi viene confermata diventa una teoria che ha una capacità esplicativa relativa ai propri limiti di applicabilità.

Molte teorie scientifiche sono emerse dalle menti di persone geniali ma che non avevano, in generale, milioni di dati, ma solo alcuni risultati sperimentali.

L’intelligenza artificiale con i big data non ambisce a definire una teoria, non vuole SPIEGARE ma ambisce a trovare correlazioni , ad estrarre una informazione SINTETICA non una teoria generale che spieghi l’origine di quei dati.

L’intelligenza artificiale esiste solo in funzione dei big data, ovvero può esistere solo se ha a disposizione un enorme flusso di dati e per gestirli ha bisogno di una crescente  capacità computazionale e quindi ha bisogno di avere a disposizione e di consumare una enorme quantità di energia.

Tutta questa capacità deve essere canalizzata attraverso l’algoritmo che è un programma che incorpora anche una serie di procedure di scelta rispetto all’analisi dei dati che possono essere legate a pregiudizi  del programmatore uomo e pertanto le conclusioni non possono essere unanimemente accettate.

Ma il punto fondamentale sui limiti attuali dell’intelligenza artificiale non è il meccanismo di apprendimento ma la memoria pregressa, quella genetica che non possiede come invece esiste per gli umani e tutti gli animali e le piante ovvero per tutti i viventi.

La memoria genetica realizza veramente la progressiva conoscenza accumulando la propria esperienza a quella atavica che gli viene passata dalla nascita, attraverso il DNA e le mappe neurali, e che gli evita di reimpostare da zero i suoi modelli.

Il processo di selezione naturale realizza un patrimonio progressivo di conoscenze che si cristallizza nella memoria genetica ed è questo il meccanismo che permette agli esseri viventi di nascere già dotati di una serie di modelli di conoscenze istintive che permettono la sopravvivenza.

Gli esseri viventi alla nascita non partono da zero ma hanno già un loro bagaglio di conoscenze come una staffetta che ogni generazione lascia ai suoi successori.

Per questo motivo il vivente ha bisogno di dati nuovi, infatti già sa come comportarsi rispetto a vecchi problemi di sopravvivenza, e quindi ha bisogno di meno energia.

Il vivente evita l’ostacolo dei big data .

Quindi per rispondere alla domanda iniziale relativa alla possibilità ed alla fattibilità dell’intelligenza artificiale posso rispondere che in linea generale credo sia possibile perché ritengo che la mente non sia di natura divina e quindi sia una struttura, estremamente complessa, ma dal funzionamento biologico e quindi legata alle leggi biologiche che governano il nostro corpo.

Per la fattibilità il problema fondamentale non risiede nel processo di apprendimento ma è legato alla MEMORIA nel senso che le macchine dotate di vera intelligenza artificiale dovrebbero avere una sorta di memoria storica accumulata facendo comunicare e scambiare, fra le macchine, informazioni elaborate in ambienti diversi ed in situazioni diverse e magari realizzando anche neuroni neuroformici con la funzione degli equivalenti ”neuroni specchio”.

Neuroni specchio – Wikipedia

Tutto questo permetterebbe alle macchine di non partire sempre da zero per imparare a costruire singolarmente ogni volta modelli nuovi di esperienze e quindi ad aver bisogno di molta meno energia.

Sono problemi di enorme complessità ma penso sia solo questione di tempo e spero che l’umanità possa avere il tempo per provarci.

Aspetti politici

La gestione economica e sociale delle moderne società richiede una mole sempre più imponente dei dati che riguardano tutti gli aspetti della vita di milioni di persone , di oggetti, di aziende, di trasporti etc  e quindi fuori dalla capacità analitica di un essere umano.

La scienza e la tecnologia quindi sono lo strumento indispensabile, ma non certo esaustivo, per affrontare le incognite della vita .

Il tratto saliente che caratterizza la tecnica moderna è che l’uomo non è più il signore della natura grazie alla mediazione tecnica, perché è la tecnica a predisporre la qualità e la direzione di questa signoria, con conseguente depotenziamento dell’uomo la cui soggettività si dissolve o si diluisce in maniera crescente.

Questo trapasso della signoria dall’uomo alla tecnica è il tratto saliente che differenzia qualitativamente la tecnica antica dalla tecnica moderna.

Una cosa infatti è pensare la natura come quell’ordine e immutabile posto a misura di tutte le cose, altra cosa è pensarla come creatura di Dio posta al servizio dell’uomo, altra ancora è pensarla come fondo disponibile di risorse all’interno di quella progettualità tecnica che include anche l’uomo tra i materiali disponibili.

Ed in questo processo si può intravedere la metamorfosi della relazione fra natura ed uomo a partire dalla cultura greca poi con la concezione cristiana fino alla visione capitalistica con una progressione in cui la componente utilitaristica e pragmatica ha emarginato progressivamente tutte le istanze legate alla centralità dei bisogni umani.

Si dirà che è una visione dispotica e apocalittica ma la realtà è che la guerra, la salute, l’economia, la mobilità, la socialità, intesa come relazioni e affetti, è progressivamente condizionata da strumenti tecnici in cui le scelte sono delegate al software di intelligenza artificiale che decide per noi.

Certamente è l’uomo che dichiara la guerra ma è la tecnica che decide il vincitore.

Certamente è il medico che prescrive le indagini ma è la tecnica che dà le risposte e propone le cure personalizzate.

Certamente è il trader che raccoglie i capitali ma è la tecnica che sceglie dove investire.

Certamente è l’uomo che compra la macchina ma sarà la tecnica che ci condurrà alla meta.

Certamente è l’essere umano che chatta nei social network ma è la tecnica che orienta e ti porta nei gruppi che ti sembra di scegliere ma che sono funzionali alla profilazione politica o commerciale.

Ma la tecnica non è una reincarnazione di una divinità e non è nei cieli o sull’olimpo, la tecnica sono le grandi aziende tecnologiche che si allocano fondamentalmente nella silicon valley e nella Cina e sono il cuore pulsante  di una rivoluzione tecnologica che porta avanti, a suon di investimenti colossali,  tutti i processi per l’ulteriore sviluppo dell’intelligenza artificiale e dei super calcolatori con la prospettiva del computer quantistico che sarebbe il salto qualitativo più straordinario del calcolo informatico.

Computer quantistico – Wikipedia

I rischi sono ovvi.  La concentrazione in mano a poche aziende di meccanismi cosi performanti da poter modificare gli assetti sociali, economici e politici del mondo. 

Stiamo parlando cioè di una prospettiva in cui i detentori di queste tecnologie di avanguardia potrebbero essere in pratica i padroni del mondo e questo mentre la politica non ha la capacità di porre un limite pubblico alla proprietà di questi colossi che non lavorano certo per noi ma per il loro business, che si alimenta a costo zero con i nostri click e le nostre ricerche,  e quando parliamo della Cina parliamo di un paese in cui la tecnologia, attraverso il riconoscimento facciale, attua un controllo capillare sulla vita dei suoi cittadini.

Non so se esiste una strada possibile per , non dico fermare, ma deviare questo processo in un senso che rimetta al centro i bisogni veri degli umani , il controllo e la proprietà dei nostri dati, e il ridimensionamento delle dimensioni societarie delle grandi corporation tecnologiche, insomma di eliminare il controllo monopolistico della tecnologia .

La politica a livello mondiale è certamente inadeguata anche perché il cittadino medio si accontenta di sopravvivere un poco per ignoranza ed un poco per timore di perdere anche queste forme di esistenza.

2 commenti Aggiungi il tuo

  1. haagrf ha detto:

    Nonostante seguo questo affascinante argomento dagli anni dell’universita’, mi manca la competenza tecno-scientifica per dire qualcosa di molto incisivo.
    Molti di noi essere umani cerchiamo da sempre di attribuirci delle facolta’ o caratteristiche intrinsiche tali da distinguerci qualitativamente e non solo quantitavamente sia dagli altri animali sia dalle ns creazioni tecnologiche. Poi spesso siamo costretti a spostare la linea tratteggiata nella sabbia a causa di qualche studio scientifico sugli animali o di qualche avanzamento tecnologico.
    Sicuramente mi fa piu’ piacere sentirmi tutt’una con il mondo animale con il quale condividiamo la ns storia e la ns biologia. Come la mettiamo con le macchine intelligenti?
    Mi sembra che per essere ‘uno di noi’, una macchina puo’ essere fatta da materiale non biologico, ma dovrebbe interagire con l’ambiente in base a delle necessita’ o degli obiettivi propri. Forse gia’ lo fanno. Poi dovrebbe avere delle emozioni e dovrebbe avvertire il dolore. Possono, potranno queste macchine?
    Per quanto riguarda la pura ‘intelligenza’, in effetti se con le reti neuronali e il machine learning sono in grado non soltanto di elaborare dati ma anche di proporre nuove soluzioni ragionevoli e non si sa neanche come lo fanno, non vedo come non si possono non considerarli intelligenti veramente. Per questo sono coscienti? Non lo so. Sara’ sempre un’intelligenza derivata dalla ns e non autonoma? Non lo so.
    Sicuramente l’utilizzo di queste tecnologie per controllare gli esseri umani e’ gia’ terrificante. Il riconoscimento facciale, la possibilita’ di leggere i ns pensieri e di cambiarli ecc, promettono degli scenari autoritari terribili.
    Ormai la tecnologia fa tutto quello che puo’ senza alcun controllo. Si puo’ provare per esempio in Europa ma in Cina o dentro le grandi societa’ tech non hanno problemi a sfruttare tutte le possibilita’ e prima o poi arriveranno pure a noi.
    Non so se un giorno queste macchine prenderanno il ns posto, ma sicuramente saranno (e sono gia’) utilizzate per controllarci e toglierci la ns autonomia e dignita’. (Anche se innegabilmente offrono dei servizi utili.) Diremo, ‘chi ce l’ha fatto fare’?

    "Mi piace"

  2. Peppe Sambri ha detto:

    Allora siccome hai individuato bene alcuni capisaldi della problematica dell’intelligenza artificiale incominciamo col dire che uno degli argomenti principali riguarda il ruolo del CORPO nell’intelligenza.
    Ricordo che il noto neurologo Damasio evidenziava che le emozioni e non solo i concetti sono cristallizzati in mappe neurali nel cervello e quindi l’intelligenza non è semplicemente un processo logico e neurologico ma è uno stato complesso di equilibrio fra diverse mappe mentali corrispondenti a sentimenti, ovvero : paure, coraggio , incertezza, speranze ….
    Se c’è un certo equilibrio abbiamo un senso di benessere.
    È, come diceva Damasio, un equilibrio OMEOSTATICO..
    Una sorta di ricetta che risulta buona se l’oscillazione fra i diversi ingredienti si mantiene entro certi limiti.
    Altro elemento è la comunicazione ovvero noi interagiamo a più livelli con il mondo circostante, sia mondo inanimato che esseri viventi, ed il corpo è la centrale che raccoglie ed elabora, probabilmente non solo nel cervello, tutti gli imput .
    Non ultimo noi abbiamo una capacità di immaginare e sapere cosa fare attraverso i neuroni specchio .
    Tutto questo però ha una direzione ben precisa : La Sopravvivenza.
    Quindi l’intelligenza artificiale dovrebbe fare i conti con questo aspetto cruciale che evidentemente non è nelle possibilità di una macchina , anche sofisticata, almeno per il momento.
    Rimane il fatto che bisogna intendersi su cosa attualmente e nel prossimo futuro possiamo attenderci da questa IA e questo è un altro discorso perché per il funzionamento di società complesse e per miliardi di persone la sopravvivenza è cosa ben diversa dalla felicità e dagli affetti.
    Insomma l’individuo con il suo piccolo universo è un impaccio .
    Rimane il fatto che l’intelligenza artificiale funziona e funzionerà sempre meglio per risolvere, probabilmente meglio o più rapidamente degli umani, molti problemi complessi per la sopravvivenza dell’umanità e questo è un bene che corriamo il rischio di pagare a caro prezzo perché gli sviluppi tecnologici sono gestiti da società private che hanno solo lo scopo di fare business e questo anche a spese delle libertà e del rispetto della privacy degli individui.
    Il problema è sempre alla fine politico e questo è il vero terreno di battaglia di una sinistra democratica.

    "Mi piace"

Lascia un commento