Le nuove tecnologie stanno giocando un ruolo fondamentale non solo nel guidare il percorso evolutivo delle aziende ma anche nel determinare quale forma assumerà il nostro futuro. Le tecnologie cambiano secondo ritmi sempre più accelerati ed è difficile, per la maggioranza delle persone, adattarsi a tali cambiamenti. In generale, secondo uno studio qualitativo dell'Eurobarometro del 2015, i cittadini dell'UE hanno una percezione positiva delle tecnologie anche se temono di subirne i lati negativi (ad es.: problemi relativi alla privacy e alla sicurezza dei dati, dipendenza crescente dalle tecnologie, perdita del proprio lavoro a causa delle tecnologie, ecc). L’apprendimento automatico o machine learning è una tecnologia che sta prendendo sempre più piede nella nostra quotidianità.
Imparare a imparare
Il termine machine learning venne coniato nel 1959 da Arthur Samuel (ingegnere elettrico considerato il pioniere del machine learning), una sua possibile definizione può essere: «campo di studi che fornisce ai computer la capacità di imparare senza bisogno di essere programmati esplicitamente».
Il machine learning (apprendimento automatico) può essere inteso come un insieme di metodi di calcolo che utilizzano l'esperienza per migliorare le prestazioni o per effettuare delle previsioni accurate. In questo caso, l'esperienza fa riferimento alle informazioni o ai dati già disponibili che sono stati etichettati e categorizzati. Come per qualsiasi esercizio di calcolo, la qualità e la quantità dei dati saranno cruciali per l'accuratezza delle previsioni che verranno eseguite dagli algoritmi.
Analizzando il concetto secondo tale prospettiva, il machine learning sembra essere simile alla modellazione statistica. Nella modellazione statistica, i dati vengono raccolti e si verifica che siano puliti — in altre parole ci si accerta che i dati siano corretti, completi (oppure che sia stata eliminata qualsiasi parte incompleta errata o irrilevante dei suddetti dati) — e quindi viene utilizzato tale set di dati pulito per testare le ipotesi e fare previsioni.
L'idea alla base della modellazione statistica è il tentativo di rappresentare questioni complesse in termini relativamente generalizzabili, vale a dire termini che spiegano la maggior parte degli eventi studiati. In effetti, l'algoritmo viene programmato per eseguire determinate funzioni in base ai dati che vengono caricati. Si tratta cioè di un algoritmo statico. Questo vuol dire che l’algoritmo, quando è alimentato con i dati, ha bisogno di un programmatore che fornisca indicazioni su cosa fare. Quindi ha senso utilizzare questo approccio quando l’algoritmo viene attivato dal programmatore.
Invece con il machine learning la procedura è rovesciata.
Piuttosto che preselezionare un modello e alimentarlo con i dati, nel machine learning sono i dati che determinano quale tecnica di analisi deve essere selezionata per eseguire al meglio il compito.
In altre parole, il computer utilizza i dati che deve selezionare per addestrare l'algoritmo. Quindi l'algoritmo non è più statico. Esso analizza i dati ai quali viene esposto, determina la migliore linea di condotta e poi agisce. In sostanza, "apprende" dai dati e in tal modo la conoscenza può essere estratta dai dati.
Tale metodo di apprendimento si basa sulla ripetizione. Un algoritmo non è altro che un insieme di istruzioni che un computer utilizza per trasformare un input in un output specifico. Quindi nel machine learning, l'aspetto dell’apprendimento è soltanto un algoritmo che si ripete più e più volte effettuando piccole regolazioni fino a quando non viene soddisfatta una determinata serie di condizioni.
Possiamo dire che un algoritmo di apprendimento funziona nel momento in cui esso è in grado di prevedere quando nuovi dati, per i quali non è stato precedentemente addestrato, verranno caricati.
Evoluzione del machine learning
Ovviamente i dati svolgono un ruolo primario in questo processo metodologico. Tuttavia, la struttura dei dati è ancora più importante poiché determina come si svolgerà il processo di apprendimento.
Si possono distinguere tre livelli del machine learning:
1) apprendimento supervisionato;
2) apprendimento non supervisionato;
3) apprendimento automatico rinforzato.
1) Apprendimento supervisionato
In questo caso il computer viene addestrato su dati che sono ben etichettati. Ciò significa che i dati sono già contrassegnati con l'etichetta corretta o il risultato corretto. Per esempio, se dovessimo insegnare a un computer a distinguere tra l'immagine di un gatto e quella di un cane, allora potremmo contrassegnare i dati nel seguente modo:
il processo di etichettatura dovrebbe essere eseguito da un programmatore, dopo aver appreso le differenze l'algoritmo machine learning sarà in grado di classificare le nuove informazioni fornite e determinare se la nuova immagine rappresenta un cane o un gatto.
Sulla base di questo metodo semplicistico, il supervised machine learning (apprendimento supervisionato) può essere utilizzato per effettuare operazioni molto più complicate come ad esempio leggere numeri e alfabeti.
ll modo in cui una persona scrive il numero "1" o la lettera "A" non sarà uguale a quello di un'altra persona.
Alimentando il computer con una quantità enorme di esempi etichettati del numero "1" o della lettera "A", possiamo addestrare l'algoritmo a vedere le diverse versioni di queste figure.
Il computer inizia così ad imparare le variazioni e diventa sempre più competente nel comprendere questi modelli.
Attualmente, i computer sono in grado di riconoscere tali modelli di scrittura meglio degli esseri umani. Il set di dati è molto importante, più è grande e migliore sarà l’addestramento dell’algoritmo.
Non appena viene terminato l'addestramento, l'algoritmo sarà in grado utilizzare l’esperienza acquisita per prevedere dei risultati partendo dai dati che vengono di volta in volta forniti.
2) Apprendimento non supervisionato
In questo caso l'algoritmo viene addestrato utilizzando un set di dati non etichettato.
Non viene specificato all'algoritmo che cosa rappresentano i dati. Il processo di apprendimento dipende dall'identificazione di modelli che vengono creati ripetutamente all’interno dei dati. Utilizzando l'esempio relativo al riconoscimento dell’immagine del cane da quella del gatto, l'algoritmo inizia a separare le immagini che riceve in base alle caratteristiche intrinseche dei cani.
Nell'apprendimento non supervisionato, gli algoritmi devono utilizzare dei metodi di valutazione basati su statistiche inferenziali per individuare modelli, relazioni e correlazioni con il set di dati grezzo e non etichettato.
Nel momento in cui vengono identificati i modelli, l'algoritmo utilizza la statistica per identificare i limiti all'interno del set di dati. I dati con modelli simili vengono raggruppati insieme, creando dei subset di dati. Mentre il processo di classificazione continua, l’algoritmo inizia a comprendere il set di dati che sta analizzando, consentendo di prevedere la categorizzazione dei dati futuri.
Questo raggruppamento dei dati può automatizzare il processo decisionale, aggiungendo uno strato di complessità all'apprendimento non supervisionato. L’aspetto ancora più importante da sottolineare è dato dal fatto di poter sfruttare i dati utilizzando una nuova modalità. Ovvero i tasselli di conoscenza mancanti vengono compensati con i dati.
3) Apprendimento automatico rinforzato
L'apprendimento rinforzato è simile all’apprendimento automatico non supervisionato in quanto i dati per effettuare l’addestramento non vengono etichettati. Tuttavia, quando viene effettuata una domanda sui dati, il risultato viene classificato - quindi anche in questo caso abbiamo un livello di supervisione.
L'algoritmo riceve i dati senza alcuna etichetta, ma viene fornito un esempio con un risultato positivo o negativo. Tale risultato positivo o negativo fornisce un ciclo di feedback per l'algoritmo, questo elemento di classificazione consente all’algoritmo stesso di determinare se la soluzione che sta fornendo risolve un problema o meno. Di fatto si tratta della versione computerizzata dell’apprendimento umano per tentativi ed errori.
L’apprendimento automatico rinforzato è spesso usato per creare delle strategie. Poiché le decisioni portano a delle conseguenze, l'azione prodotta è prescrittiva e non solo descrittiva, come nell'apprendimento non supervisionato. Questo tipo di apprendimento è stato usato per addestrare i computer a giocare.
Questa è l'idea che si trova alla base della società DeepMind, acquisita da Google nel 2014, i ricercatori della società hanno addestrato l’algoritmo per imparare a giocare con la console Atari.
La società ha creato AlphaGo che ha sconfitto 4-1 il miglior giocatore umano professionista nel gioco "Go" (gioco da tavolo strategico per due giocatori), uno dei giochi più complessi al mondo.
Implicazioni per le imprese
Oggi l'apprendimento automatico viene utilizzato in diverse aree. L'automobile realizzata da Google che si guida da sola è stata sviluppata usando l'apprendimento automatico ed oggi le macchine possono leggere le labbra più velocemente degli esseri umani.
Negli ultimi anni l’apprendimento automatico si è infiltrato in quasi tutti i settori della finanza. Ad esempio l’apprendimento automatico viene utilizzato per il trading automatico (anche definito trading algoritmico), analizzando i dati delle serie temporali, gestione del portafoglio, rilevazione frodi, servizio clienti, analisi delle notizie, costruzione di strategie di investimento, ecc. Ma il vero potere dell’apprendimento automatico viene scatenato dalle reti neurali e viene utilizzato sempre più spesso nell’ambito delle life sciences.
Intelligenza artificiale in ambito Life Sciences e questioni legali
Sistemi di intelligenza artificiale e relativa applicazione in ambito Life Sciences, inclusa l’utilizzazione in ambito diagnostico e in ambito di ricerca clinica, robotica avanzata in relazione alla chirurgia e ai dispositivi medici impiantabili, sono stati oggetto di in un incontro organizzato il 12 luglio 2017 dallo studio legale DLA Piper con Media for Health con il patrocinio della Camera di Commercio americana in Italia cui ha partecipato fra l’altro il dr. Andrea Agnello, direttore per l’Italia del Programma Watson Health di IBM.
Secondo la definizione proposta dal Parlamento europeo nella risoluzione del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (la “Risoluzione”), i sistemi di intelligenza artificiale sono dotati delle seguenti caratteristiche:
– l’autonomia e l’interconnettività grazie a sensori e/o mediante lo scambio di dati con il suo ambiente (interconnettività) e lo scambio e l'analisi di tali dati;
– l'autoapprendimento dall'esperienza e attraverso l'interazione;
– almeno un supporto fisico minore;
– l'adattamento del proprio comportamento e delle proprie azioni all'ambiente;
– l'assenza di vita in termini biologici;
Non si tratta di scenari futuribili, ma di applicazioni concrete di tecnologie già esistenti da molti anni nell’ambito delle scienze della vita e della cura alla persona. Nel campo dei dispositivi medici l’applicazione della tecnologia robotica è realtà da molti anni, basti pensare ai dispositivi impiantabili attivi, e in particolare delle protesi robotiche, recentemente venute alla notorietà del grande pubblico grazie all’atleta paraolimpica Bebe Vio.
Ci sono poi i sistemi di intelligenza cognitiva quali il Watson Health, applicazione del sistema Watson in ambito Life Sciences che, fornito attraverso il cloud, analizza grandi volumi di dati, comprende domande complesse poste in linguaggio naturale e propone risposte basate sulle evidenze.
Nella nostra materia, vi sono osservazioni e raccomandazioni che riguardano (i.) la cura degli anziani; (ii.) la chirurgia robotica e (ii.) le protesi robotiche e gli altri dispositivi medici impiantabili.
La Risoluzione sottolinea come i robot per gli anziani sono e saranno sempre più utilizzati per la prevenzione, l'assistenza, il monitoraggio, lo stimolo e l'accompagnamento come pure delle persone affette da disturbi cognitivi o perdita della memoria. Ciò detto, è evidenziata l’importanza del contatto umano per la cura e l’assistenza per le cure mediche.
Quanto alla chirurgia robotica, la Risoluzione la considera già oggi fondamentale nello svolgimento di operazioni chirurgiche ad alta precisione e nell'esecuzione di procedure ripetitive, ed invita la Commissione a garantire che le procedure di sperimentazione per testare i nuovi dispositivi medici robotici siano sicure, in particolare nel caso di dispositivi che vengono impiantati nel corpo umano.
Quanto agli interventi riparativi e migliorativi del corpo umano, la Risoluzione osserva gli enormi progressi compiuti dalla robotica e l'ulteriore potenziale nel campo della riparazione e della sostituzione di organi danneggiati e delle funzioni umane, sottolineando l'importanza di istituire con urgenza nelle strutture sanitarie, comitati di robtica, e invita la Commissione e gli Stati membri a elaborare orientamenti per l'istituzione e il funzionamento di tali comitati.
Si ritiene fondamentale garantire, nel campo delle applicazioni mediche essenziali, come protesi robotiche, che sia dato accesso continuo e sostenibile alle manutenzioni, alle migliorie e agli aggiornamenti dei software che ovviano a malfunzionamenti e vulnerabilità, sottolineando i rischi correlati alla possibilità di hacking , disattivazione o cancellazione della memoria dei CPS integrati nel corpo umano, dato che possono mettere in pericolo la salute umana. La Risoluzione raccomanda la creazione di enti di fiducia indipendenti che dispongano dei mezzi necessari per fornire servizi alle persone che utilizzano avanzati dispositivi medici salvavita e suggerisce l'introduzione dell'obbligo per i produttori di fornire a tali enti di fiducia indipendenti istruzioni di progettazione esaustive, incluso il codice sorgente.
Al di là di queste osservazioni specifiche in ambito Life Sciences, la Risoluzione contiene una serie di raccomandazioni per la Commissione, fra cui particolarmente significative sono quelle in tema di responsabilità, con la richiesta di adottare normative sulla responsabilità civile dei robot intelligenti fondate sul principio della responsabilità oggettiva o della gestione dei rischi, che comunque dovrebbero garantire che le forme di risarcimento non siano limitate per il fatto che il danno è provocato da un soggetto non umano, e che la responsabilità degli umani coinvolti sia proporzionale all'effettivo livello di istruzioni impartite al robot e al grado di autonomia di quest'ultimo, con possibile adozione di un regime di assicurazione obbligatorio e la costituzione di un fondo di risarcimento;
E' chiaro che punto di vista normativo la situazione è in evoluzione: spetterà agli operatori far si che il necessario adeguamento del quadro normativo non tarpi le ali ad un settore in grandissima crescita, il cui sviluppo è in grado di trasformare le abitudini di vita e lavorative, innalzare i livelli di efficienza, di risparmio e di sicurezza e migliorare il livello dei servizi, anche nel settore delle scienze della vita.