Arriva la pazzia artificiale
Condividi
La notizia è molto curiosa. Il mitico Media Lab del Mit di Boston ha prodotto un’intelligenza artificiale psicopatica. Si chiama Norman, come il protagonista del thriller Psycho di Hitchcock, ed ha reazioni da persona psicopatica. Come mai? Il povero Norman viene tirato su a pane e immagini terrificanti, quelle prese da un canale specializzato nella documentazione della morte. Il risultato è che finisce per manifestare i classici disturbi della psicopatia. Per rendersene conto basta confrontare le sue reazioni con quelle di intelligenze abituate a dati privi di elementi macabri e, al contrario, ricche di fiori e animali. Bene, davanti alle macchie di inchiostro del test di Rorschach le intelligenze addestrate con belle immagini danno interpretazioni positive: uccelli appollaiati su un albero o un vaso pieno di fiori. Norman invece vede nelle stesse macchie un uomo sulla sedia elettrica o colpito da un proiettile. Gli esempi sono numerosi: laddove le intelligenze standard vedono un ombrello rosso e bianco, lui percepisce una persona uccisa da una scarica elettrica mentre cerca di attraversare una strada trafficata. E avanti così. Il Mit dimostra che i dati sono fondamentali nel determinare un comportamento. Anche quello di una IA, intelligenza artificiale. La chiave di volta nella creazione delle intelligenze artificiali è legata al genere di dati con cui sono allevate. Questo significa che i dati vanno pensati, studiati, bilanciati. E naturalmente verificati. Serve una forma di psicologia dell’intelligenza artificiale? Si, evidentemente. E anche un codice etico. Gli assistenti virtuali o le auto autonome, esempi di IA, se subiscono uno shock esagerato rispondono come un malato di mente? Così pare. I rischi nella programmazione sono concreti. Eh, la vita è bella perché è varia. Lo è sempre di più. Chi vuol esser lieto sia.