Vai al contenuto

Massimiliano Vurro

Le 3 facce dei #bigdata: Intelligenza artificiale, #MachineLearning e #ChatBot trollati (ancora per poco) dai #millennials

L’intelligenza artificiale è molto più attuale e vicina di quanto non possiamo immaginare.

Il futuro tracciato da John McCarthy, che nel lontano 1955 coniò il termine intelligenza artificiale (abbreviato in inglese con l’acronimo A.I. ovvero Artificial Intelligence) descrivendolo come “la scienza e la progettazione di macchine intelligenti“, è qui ed è oggi.

Nel recente report Frost & Sullivan, “Artificial Intelligence & Cognitive Computing Systems in Healthcare” si evidenzia infatti che il mercato dell’intelligenza artificiale nel settore sanitario ha già prodotto entrate per 633,8 milioni di dollari nel 2014 e stima che questa cifra raggiungerà quota 6.662,2 miliardi di dollari nel 2021, con un tasso di crescita annuale composto del 40%.

Alcuni dei sistemi sanitari tecnologicamente più all’avanguardia sono infatti già impegnati nel potenziamento della capacità di apprendimento automatico delle macchine (machine learning), nello sviluppo di piattaforme di calcolo cognitivo e nello sfruttamento dell’AI per la diagnosi precoce.

La diffusione ormai su larga scala di dispositivi mobili e l’adozione di tecnologie indossabili (wearables), aggiungono poi una nuova prospettiva al machine learning, che può trasformare un comune smartphone, da dispositivo biometrico a piattaforma da cui partire per interventi su misura basati su algoritmi, continuamente ottimizzati per fornire informazioni personali in tempo reale.

Ne è un esempio lo studio del 2013 effettuato da un gruppo di ricerca dell’International Diabetes Center di Minneapolis Threshold-based insulin-pump interruption for reduction of hypoglycemia” il quale dimostra che un sensore del livello di glucosio associato a una pompa di insulina può ridurre l’ipoglicemia notturna semplicemente inviando i dati allo smartphone del paziente e al controllo del medico curante.

Altro esempio è l’utilizzo di specifici algoritmi di tracciatura ed elaborazione del linguaggio quotidiano (sentiment analysis) via smartphone per riconoscere modelli di discorso associati al disturbo del pensiero, semplicemente ascoltando la voce di una persona, identificando così l’inizio di un danno conoscitivo o di un episodio psicotico.
cognitive learningL’algoritmo di apprendimento automatico utilizzato nella ricerca svolta nel 2015 da Gillinder Bedi & Facundo Carrillo dal titolo “Automated analysis of free speech predicts psychosis onset in high-risk youths” su campioni di discorso di 34 adolescenti ad alto rischio di psicosi, va proprio in questa direzione, identificando con precisione assoluta i 5 individui che successivamente avrebbero sviluppato la psicosi, risultando così più accurato delle valutazioni cliniche.

Un ulteriore applicazione è l’interpretazione di estesi gruppi di dati quali ad esempio milioni di messaggi sui social network, per identificare potenziali focolai influenzali. Basti pensare all’analisi predittiva attraverso marker semantici applicati a milioni di post su Facebook o Twitter in cui campioni di popolazione lamentano i sintomi tipici dell’influenza.

I colossi del calcolo cognitivo si stanno presentando al mercato con i propri sistemi in grado di competere con la capacità, squisitamente umana, di rispondere con sicurezza, velocità e precisione a domande formulate in linguaggio naturale, cioè la lingua parlata, ricca di sfumature, modi di dire e metafore.
tay-aiIBM ha fatto da apripista con Watson (presentato con l’ambizioso “Chi è Watson?” anziché con il “ Cos’è Watson?”) associando ad una imponente piattaforma di sistemi POWER7 oltre 1.000 tecniche algoritmiche per la raccolta e la valutazione di dati strutturati e non.

Altri stanno percorrendo la strada dell’cognitive computing e dell’artificial intelligence a partire da Dell, Hewlett-Packard, Apple, Hitachi Data Systems

Così anche Microsoft a cui però di recente, è sfuggito il controllo dell’AI dal nome Tay.ai, progettata come chatbot per interagire con i Millennials americani (tra i 18 ed i 24 anni) per studiarne il linguaggio sui social network, ma che non ha retto il confronto in rete ed è stata influenzata e trasformata  in meno di ventiquattro ore in un avatar inquietante dai tratti sessisti e xenofobi.

Google non sta a guardare ed oltre ad aver lanciato la libreria TensorFlow 0.8  per il calcolo distribuito ha recentemente aperto il Cloud Machine Learning agli sviluppatori.

Questa possibilità, di estrarre informazioni dai contenitori più disparati, compresi ad esempio i modelli nutrizionali testati e approvati dalla comunità scientifica e le banche dati di alimenti in oncologia, di tradurre grandi insiemi di dati non strutturati, non senza rischi (data warehouse, infrastrutture, privacy e sicurezza) e di utilizzare strumenti per l’elaborazione del linguaggio naturale consentono ai sistemi di intelligenza artificiale di affrontare le sfide legate al coordinamento delle cure ed alla diagnosi precoce.

In un futuro non così lontano, lo scenario di formulazione di una diagnosi, potrebbe riservare interessanti sorprese per chi, alla ricerca di informazioni sul proprio stato di salute, digitando su Google i propri sintomi o postando l’immagine di un area del  proprio corpo, potrà ottenere una risposta predittiva da un addestrato bot.

Proprio per questo motivo, è necessario che le due intelligenze, quella umana e quella artificiale, si compensino e restino in costante equilibrio perché nel momento in cui l’apprendimento automatico diventa pratica clinica, la medicina può trasformare un gesto di umana creatività in uno strumento “intelligente” di innovazione sociale.

La singolarità tecnologica è vicina ed i big data sempre più Big.