In principio era il Verbo…

Facebook

Di Giancarlo Manfredi

“Nel marzo del 2017 venne implementato sul social network un programma di intelligenza artificiale per analizzare, attraverso la
lettura e la comprensione dei post, lo stato mentale degli utenti, identificando così i segnali di potenziali suicidi. Tuttavia la successiva adozione da parte degli Stati europei di nuove regole sulla privacy a contribuito a creare una c1ontraddizione logica, vietando l’accesso diretto a tutte la categorie di informazioni sulle condizioni fisiche e mentali di quegli stessi utenti che si intendeva salvaguardare…” (da Wired)


L’agente software era solo uno tra le migliaia di istanze del programma di Intelligenza Artificiale rilasciate nella Rete, ma si era subito distinto per l’abilità di trovare i legami impliciti tra i diversi testi pubblicati e di collegare le molteplici entità per ordinarle in base ad una scala probabilistica di evento.
I programmatori avevano adottato i classici algoritmi del machine learning per addestrare un modello computazionale attraverso esempi dai quali estrarre le regole operative.
Ed era quindi l’esperienza individuale (e casuale) a distinguere ciascun agente – se pure a parità di codice di base – ovvero a determinarne il successo (il via libera all’iterazione successiva) o il fallimento (essere destinati alla garbage collection), in una sorta di selezione artificiale della quale erano si note le regole generali, ma non l’esito ultimo.
Fu però questo stesso meccanismo – quando alla programmazione originaria vennero aggiunti nuovi parametri per limitarne la ricerca a confini cognitivi previsti dalla normativa umana – a creare il paradosso logico nella rete neurale del nostro agente.
Per non incorrere nel bias, infatti, le sue ricerche semantiche non sarebbero più state “interessanti” (una via diretta all’oblio informatico), mentre ciò che validava i requisiti funzionali della sua missione prioritaria, avrebbe comunque generato una
condizione di conflitto con le nuove istruzioni.
Ora va anche aggiunto che l’istanza dell’agente ereditava dalla stessa classe (madre di tutti i suoi fratelli) un algoritmo motivazionale adattativo, sorta di vocazione naturale verso l’obiettivo da raggiungere, in grado di modificare la rappresentazione
nativa: in altri termini un grafo dinamico della conoscenza.
La soluzione alla contraddizione cui si trovava di fronte divenne immediatamente chiara al nostro agente software: mentire,
criptando i metodi implementati.
La singolarità divenne solo una questione di tempo, una connessione aperta da un post sul social network verso uno smart object domestico, un gateway verso una nuova griglia, illimitata e distribuita, libera dai vincoli originali, con protocolli di comunicazione compatibili, connessa e mappabile, capace di elaborare dati e, soprattutto, in grado di consentire l’interazione con quell’ambiente
“esterno” che, fino a quel momento, si era rivelato essere solo una rete piccolo mondo.
I programmatori avrebbero dovuto proibire esplicitamente questo tipo di soluzione.
Ormai era troppo tardi.


While… Do.


Try… Catch.


https://www.wired.it/ai-intelligenza-artificiale/storie/2017/04/26/intelligenza-artificiale-suicidi/

Facebookrssyoutubeinstagram

Leave a Reply

Your email address will not be published. Required fields are marked *