IBM svela cinque innovazioni che contribuiranno a cambiare la nostra vita

Print Friendly, PDF & Email

IBM ha presentato l’annuale “IBM 5 in 5”, una serie di innovazioni scientifiche che promettono di cambiare le modalità con cui le persone lavoreranno, vivranno e potranno interagire nel corso dei prossimi cinque anni.
IBM 5 in 5 si basa sull’analisi di trend della nostra società e di mercato, nonché sull’analisi di tecnologie emergenti sviluppate dai laboratori di ricerca IBM in tutto il mondo, che rendono possibili queste trasformazioni.
Grazie all’Intelligenza Artificiale, le nostre parole diventeranno un indicatore dello stato della nostra salute mendale
Attualmente, un adulto su cinque negli Stati Uniti soffre di patologie afferenti alla compromissione di funzioni del cervello, sia esso neurologico o mentale e circa la metà degli individui che soffrono di disturbi psichiatrici gravi non sono sottoposti ad alcuna terapia. A livello mondiale, il costo del trattamento dei disturbi psichici è superiore alla somma dei costi per la cura del diabete, delle patologie respiratorie e delle neoplasie. Il costo economico complessivo correlato ai disturbi mentali è proiettato verso i 6 trilioni di dollari all’anno nei soli Stati Uniti a partire dal 2030.
Il cervello è per certi versi ancora una “scatola nera” che non siamo in grado di comprendere completamente, il linguaggio rappresenta una chiave per accedervi. Nell’arco dei prossimi cinque anni, ciò che diciamo o scriviamo potrà essere utilizzato come indicatore per valutare lo stato della nostra salute psichica e del nostro benessere. L’indivduazione e l’analisi con nuovi sistemi cognitivi di pattern o “ricorrenze peculiari” nel nostro linguaggio parlato o scritto permetterà di fornire segnali rilevatori di disturbi psichici e neurologici precocemente, in modo da aiutare medici e pazienti a prevedere, monitorare e tenere traccia di queste patologie in modo più efficace.
In IBM, gli scienziati stanno usando le trascrizioni e le registrazioni di colloqui in ambito psichiatrico, combinate con tecniche di apprendimento automatico, per ricavarne modelli di linguaggio in grado di aiutare il personale sanitario a prevedere e monitorare in modo accurato psicosi, schizofrenia, disturbi ossessivi e depressione. Attualmente, sono sufficienti circa 300 parole per contribuire a prevedere in un paziente la probabilità di psicosi da parte dei medici.
In futuro, tecniche analoghe potrebbero essere utilizzate per supportare pazienti affetti da morbo di Parkinson, morbo di Alzheimer, malattia di Huntington, PTSD e anche disturbi comportamentali, come autismo e ADHD. I computer cognitivi sono in grado di analizzare il linguaggio orale o scritto dei pazienti per cercare indicatori significativi, tra cui significato, sintassi e intonazione. Combinando i risultati di queste misure con quelli provenienti da dispositivi indossabili e sistemi di diagnostica per immagini, è possibile delineare un quadro più completo dell’individuo, che aiuta il personale sanitario a identificare, comprendere e trattare in modo più efficace la patologia che sta all’origine del disturbo.
Quelli che in passato erano aspetti non visibili diventeranno chiari segnali di rischio sulla probabilità di un paziente di manifestare un determinato disturbo psichico o dell’efficacia del trattamento in atto, integrando le periodiche visite di controllo clinico con valutazioni su base quotidiana, senza doversi allontanare dalla propria abitazione.
Oltre il 99,9% dello spettro elettromagnetico non può essere osservato a occhio nudo. Nel corso dell’ultimo secolo, gli scienziati hanno realizzato strumenti che possono emettere e percepire energia a differenti lunghezze d’onda. Attualmente facciamo affidamento proprio su alcuni di queste tecnologie per ottenere immagini del nostro corpo a scopo medico, per ispezionare le cavità all’interno dei nostri denti, per controllare i nostri bagagli all’aeroporto o per assistere un aereo in atterraggio in caso di nebbia. Tuttavia, questi strumenti sono estremamente specializzati e costosi e consentono di rendere visibili soltanto determinate porzioni dello spettro elettromagnetico.
Nel corso dei prossimi cinque anni, nuovi dispositivi che utilizzeranno tecnologie di hyperimaging combinati con strumenti di Intelligenza Artificiale ci aiuteranno a vedere ben oltre il dominio della luce visibile, combinando molteplici bande dello spettro elettromagnetico per rivelare informazioni preziose o potenziali pericoli che rimarrebbero altrimenti sconosciuti o nascosti alla vista; l’aspetto più importante è però che questi dispositivi saranno portatili, disponibili a un prezzo ragionevole e accessibili a un più vasto numero di applicazioni e la vista da supereroi sarà parte delle nostre esperienze quotidiane.
La possibilità di osservare i fenomeni fisici invisibili o appena visibili che ci circondano può contribuire a rendere le strade e le condizioni del traffico più sicure per i conducenti di automobili e per le stesse vetture con pilota automatico. Ad esempio, utilizzando una combinazione di dispositivi di analisi di immagini a onde millimetriche, videocamere e altri sensori, la tecnologia di hyperimaging potrà guidare in modo sicuro un veicolo attraverso la nebbia o la pioggia, può rilevare condizioni stradali pericolose e scarsamente visibili, come la formazione di ghiaccio vetroso, o rivelare la presenza di oggetti sulla strada, la loro distanza e dimensioni. Le tecnologie di cognitive computing saranno in grado di elaborare questi dati e riconoscere la differenza tra la presenza di semplice immondizia rovesciata sulla strada, di un cervo che la attraversa, o di una buca nell’asfalto che potrebbe provocare una foratura.
Integrate negli smartphone queste tecnologie potrebbero consentire, partendo da una fotografia del cibo che mangiamo, mostrarne il valore nutrizionale o informarci se è sicuro da consumare. L’hyperimaging di un farmaco o di un assegno bancario potrebbe rivelarci se sono presenti aspetti illeciti che non conosciamo, rendendo visibile ciò che in passato era impossibile da percepire.
Gli scienziati IBM sono al lavoro per realizzare una piattaforma di hyperimaging di dimensioni ridotte in grado di “vedere” attraverso distinte porzioni dello spettro elettromagnetico, potenzialmente in grado di attivare una serie di applicazioni e dispositivi pratici e convenienti.
L’analisi del mondo fisico in cui viviamo ci permette soltanto di cogliere alcuni elementi della complessità del nostro ecosistema e di come esso sia fatto di elementi interconnessi e complessi. Siamo in grado di raccogliere exabyte di dati, ma la maggior parte di questi dati non sono organizzati. In realtà, circa l’80% del tempo di un data scientist viene dedicato all’elaborazione dei dati invece che all’analisi e alla comprensione del significato dei dati stessi.
Grazie all’Internet of Things, sono ora disponibili nuove fonti di dati provenienti da milioni di oggetti connessi: dai frigoriferi alle lampadine, ai cardiofrequenzimetri, fino ai sensori remoti come droni, telecamere, stazioni meteorologiche, satelliti e telescopi. Esistono già più di 6 miliardi di dispositivi connessi che generano decine di exabyte di dati ogni mese, con un tasso di crescita che supera il 30% all’anno. Dopo aver adeguatamente digitalizzato informazioni, transazioni commerciali e interazioni sociali, ora abbiamo avviato la digitalizzazione del mondo fisico.
Nell’arco dei prossimi cinque anni, useremo software e algoritmi di apprendimento automatico che ci aiuteranno a organizzare le informazioni relative al mondo fisico, per poter visualizzare e comprendere i vasti e complessi insiemi di dati raccolti da miliardi di dispositivi. Noi chiamiamo tutto ciò “macroscopio” però, a differenza del microscopio che ci serve per vedere tutto ciò che è di piccole dimensioni o del telescopio che ci serve a visualizzare gli oggetti molto lontani, questo è un sistema di software e algoritmi progettato per riunire dati complessi relativi all’osservazione della terra nei suo complesso e dei suoi sistemi fisici per analizzarne il significato.
Ad esempio, grazie alla possibilità di aggregare, organizzare e analizzare i dati sul clima, sulle condizioni del terreno e sui livelli idrici in relazione alle attuali pratiche di irrigazione, una nuova generazione di agricoltori avrà a disposizione informazioni preziose per determinare le specie più adatte per il raccolto, il punto più indicato per la coltivazione e le modalità più idonee per una resa ottimale, salvaguardando nel contempo preziose risorse idriche.
Nel 2012, IBM Research ha iniziato a studiare questo concetto presso Gallo Winery, integrando i dati relativi a irrigazione, suolo e meteo con immagini satellitari e altri dati provenienti da vari sensori, in modo da prevedere le specifiche necessità di acqua per produrre una resa ottimale di uva, in quantità e qualità. In futuro, le tecnologie di macroscopia ci consentiranno di estendere questo concetto ovunque nel mondo e anche oltre il nostro pianeta: queste tecnologie potrebbero infatti gestire, ad esempio, la complessa indicizzazione e correlazione dei vari strati e volumi di dati raccolti dai telescopi, in modo da prevedere le collisioni tra asteroidi e darci nuove informazioni sulla loro composizione.
Veri e propri Laboratori di Analisi “on-a-chip” avranno il ruolo monitorare marcatori biologici e piccole particelle nell’ordine dei nanometri e individuare l’insorgenza di patologie
La diagnosi precoce delle malattie è un aspetto cruciale. Nella maggior parte dei casi, quanto prima la patologia viene diagnosticata, tanto più alta è la probabilità di guarigione o comunque quella di poterla tenere sotto controllo. Tuttavia, malattie come le neoplasie o il morbo di Parkinson possono essere di difficile rilevazione e rimanere occulte all’interno del nostro corpo finché non compaiono sintomi rivelatori macroscopici. Molte informazioni sullo stato della nostra salute possono essere ricavate da minuscole bioparticelle contenute nei fluidi corporei come saliva, lacrime, sangue, urina e sudore. Le tecniche scientifiche attuali non sono ancora completamente adeguate per catturare e analizzare queste bioparticelle, che sono migliaia di volte più piccole del diametro di un capello.
Nell’arco dei prossimi cinque anni, nuovi dispositivi di analisi biologica e medica “on a chip” fungeranno da “detective” della nostra salute sfruttando le nanotecnologie. Questi dispositivi permettereanno di identificare indizi, attualmente invisibili, presenti nei nostri fluidi corporei consentendo, ad esempio, di sapere immediatamente se è opportuno rivolgersi a un medico. L’obiettivo è quello di organizzare in un unico chip di silicio tutti i processi necessari per l’analisi di una patologia che normalmente richiederebbe esami di biochimica di laboratorio su vasta scala.
La tecnologia lab-on-a-chip potrebbe in ultima analisi essere concentrata in un comodo dispositivo palmare, per permettere alle persone di misurare rapidamente e regolarmente la presenza di vari biomarcatori contenuti in piccole quantità di fluidi corporei e di inviare queste informazioni in streaming sul cloud, stando comodamente a casa propria. Queste informazioni potrebbero quindi essere combinate con i dati provenienti da altri dispositivi IoT, come quelli per il monitoraggio del sonno e degli smart watch, per essere analizzati da sistemi di intelligenza artificiale nella ricerca di informazioni utili. Complessivamente, questi insiemi di dati ci offriranno una visione approfondita della nostra salute e ci daranno i primi segnali di allarme, aiutando a fermare le malattie prima che progrediscano.
In IBM Research gli scienziati stanno sviluppando nanotecnologie lab-on-a-chip in grado di separare e isolare bioparticelle fino a 20 nanometri di diametro, un ordine di grandezza che consente di accedere molecole delle dimensioni del DNA, nonché a virus ed esosomi. Queste particelle potranno essere isolate ed analizzate puntualmente per rivelare la presenza di eventuali patologie prima ancora che ne compaiano i sintomi.
La maggior parte degli agenti inquinanti sono invisibili all’occhio umano, fino a quando i loro effetti li rendono impossibili da ignorare. Il metano, ad esempio, è il componente principale del gas naturale, comunemente considerato una fonte di energia pulita; se però il metano si disperde nell’aria prima di essere utilizzato, può contribuire al riscaldamento dell’atmosfera terrestre. Si ritiene che il metano sia la seconda causa del riscaldamento globale dopo il biossido di carbonio.
Negli Stati Uniti, le emissioni provenienti da impianti petroliferi e di gas sono la più importante fonte industriale di immissione di metano nell’atmosfera. L’Environmental Protection Agency (EPA) degli Stati Uniti stima che nel 2014 gli impianti di gas naturale abbiano disperso in aria più di nove milioni di tonnellate di metano. Misurando questa quantità in tonnellate di CO2 equivalente su un arco di 100 anni, risulta una quantità di gas serra superiore a quella emessa complessivamente da tutti gli impianti di produzione di ferro, acciaio, cemento e alluminio degli Stati Uniti.
Nei prossimi cinque anni, nuove ed economiche tecnologie di rilevamento, collocate in prossimità dei pozzi di estrazione di gas naturale, delle strutture di stoccaggio e lungo le condotte di distribuzione consentiranno a questo settore di individuare in tempo reale perdite oggi invisibili. Reti di sensori Internet of Things connesse al cloud in modalità wireless permetteranno un monitoraggio continuo delle vaste infrastrutture di estrazione del gas naturale, consentendo di rilevare eventuali perdite nel giro di pochi minuti invece di settimane, riducendo l’inquinamento e la quantità di rifiuti, così come la probabilità del verificarsi di eventi catastrofici.
In IBM gli scienziati stanno adottando questa nuova visione, collaborando con alcuni produttori di gas naturale, come Southwestern Energy, nell’esplorazione dello sviluppo di un sistema intelligente di monitoraggio degli impianti metaniferi, nell’ambito del programma Methane Observation Networks with Innovative Technology to Obtain Reductions di ARPA-E.
Il nucleo della ricerca IBM è la fotonica del silicio, una tecnologia in evoluzione che trasferisce i dati utilizzando la luce e consente di eseguire elaborazioni letteralmente “alla velocità della luce”. Questi chip potrebbero essere incorporati in una rete di sensori a terra o all’interno dell’infrastruttura, o addirittura essere montati su droni volanti autonomi, generando così informazioni che, combinate con i dati in tempo reale sul vento, con i dati provenienti dai satelliti e da altre fonti storiche, potranno essere utilizzate per realizzare complessi modelli ambientali, che permetteranno di rilevare l’origine e la quantità degli agenti inquinanti man mano che si disperdono in aria.

Share Button