La AI di Google ha creato una sua AI, ed è migliore di quelle create dagli umani

0
17398

PIC: Google

Nel maggio 2017, i ricercatori di Google Brain annunciarono la creazione di AutoML, un’intelligenza artificiale (AI) in grado di generare lei stessa altre AI.

Recentemente, AutoML ha dovuto misurarsi con la più grande sfida di sempre: costruire un’AI che fosse più efficiente delle AI con compiti analoghi create dai programmatori umani.

In dettaglio 

La AI figlia da realizzare, detta NASNet, aveva il compito di riconoscere elementi all’interno di un video (persone, auto, semafori… ecc); AutoML in seguito avrebbe valutato la performance di NASNet e utilizzato queste info per migliorare la sua stessa creazione, ripetendo il processo migliaia e migliaia di volte.

Quando NASnet fu testata su grandi contenitori informatici di immagini (ImageNet Image Classification), ottenne risultati migliori di tutti gli altri sistemi informatici di riconoscimento visivo.

I ricercatori hanno affermato che NASNet ha avuto un’accuratezza dell’82.7% nel riconoscere le immagini, 1.2% più efficiente rispetto ad ogni altro sistema mai testato: AutoML, quindi, è stata più brava dei migliori programmatori nel creare un software di riconoscimento immagini.

Il futuro 

L’apprendimento automatico è alla base di molti sistemi AI; nonostante il principio alla base sia semplice (un algoritmo impara con una routine basata su ricompensa e punizione, venendo esposto a grandi quantità di dati) il processo richiede molto tempo e risorse.

L’automazione del processo di creazione di AI permette in altri termini di delegare il grosso del lavoro ad un’altro sistema AI, più veloce ed efficiente di un programmatore. Ciò significa che AutoML potrebbe aprire il campo dell’apprendimento automatico anche ai non-esperti.

Rischi? 

La creazione spontanea di una AI da parte di un’altra AI solleva anche degli interrogativi inquietanti: cosa accadrebbe, per esempio, se il genitore dotasse il figlio di caratteristiche non gradite?

Considerando questo caso particolare, NASNet potrebbe essere impiegato in sistemi automatici di video-sorveglianza, prima che una legislazione specifica sull’argomento sia disponibile. La società in questo caso non sarebbe pronta all’avanzamento tecnologico garantito dalla AI.

Bisogna agire prima 

Gli attori più rilevanti nel panorama AI stanno lavorando sodo affinché questi sistemi non ci trasportino in qualche spiacevole futuro distopico.

Amazon, Facebook, Apple e molti altri sono membri di “Partnership on AI to benefit people and Society”, un’organizzazione che punta allo sviluppo sostenibile delle AI.

DeepMind, una compagnia di Google, ha invece annunciato la creazione di un gruppo per esaminare le implicazioni etiche e morali dell’AI.

Pic Google Research

Sono al lavoro anche i governi, che hanno recentemente mostrato l’intenzione di vietare le armi autonome comandate da AI (che tanto spaventano Stephen Hawking ed Elon Musk); insomma gli sforzi per fare in modo che i vantaggi in questo campo superino gli svantaggi, e prevenire ogni possibile disastro, sono già ingenti.

Ma non tutti sono ottimisti: secondo Elon Musk, le chances che abbiamo per rendere le AI sicure oscillano intorno al 10%, e di conseguenza il futuro di queste tecnologie non appare esattamente roseo.


Warning: A non-numeric value encountered in /home2/wae5xs0adbo2/public_html/wp-content/themes/Newspaper/includes/wp_booster/td_block.php on line 997