Parla Medvet, il prof di Trieste: «Il robot addestrato può esprimere anche emozioni»
Il docente dell’ateneo triestino Eric Medvet parla
dell’esperimento di Lamda sottolineando limiti e pregi
TRIESTE Sembra una conversazione tra esseri senzienti, in realtà è la trascrizione di un dialogo tra esseri umani e un chatbot, Lamda, uno di quei programmi che colloquiano con gli utenti in linguaggio naturale, come quelli che ci rispondono nella chat dell’assistenza clienti del nostro operatore telefonico.
Chi ha letto la conversazione resa nota dall’ingegnere di Google Blake Lemoine tra Lamda e il suo team di sviluppo non ha potuto che rimanere a bocca aperta: Lamda esprime concetti e idee che lo fanno sembrare cosciente, dotato di sentimenti ed emozioni come un umano.
L’ingegnere è stato sospeso e Google ha spiegato che Lamda è semplicemente un chatbot ben addestrato: è stato nutrito con miliardi di esempi di dialogo e ha imparato a generare testi molto simili a quelli che potrebbe produrre un essere umano.
Ne abbiamo discusso con Eric Medvet, docente dell’Università di Trieste ed esperto di machine learning, di robotica evolutiva e vita artificiale, che poco tempo addietro ha tenuto una conferenza dal titolo “Alla frontiera dell’intelligenza: animali, macchine e meccanismi e la loro capacità di decidere”, in cui ha trattato anche il “caso Lamda”.
Professore, come si è arrivati a ottenere un chatbot così avanzato come Lamda?
Un essere umano entra a contatto con il mondo esterno facendone esperienza attraverso tutti i sensi e per tutta la durata della sua vita: non esiste un’intelligenza artificiale che abbia accumulato così tante esperienze. Ma se restringiamo il campo alla sfera del linguaggio iniziano a esserci bagagli d’esperienza importanti anche nell’Intelligenza artificiale: un agente conversazionale come Lamda è stato nutrito con milioni di libri, perché si tratta di dati facilmente reperibili e già digitalizzati.
Lamda è senziente?
Ci piacerebbe che ci fosse un confine netto tra ciò che è senziente e ciò che non lo è, magari basato su una scala di complessità che, parlando solo di vita biologica, veda per esempio a un estremo l’uomo e all’altro un batterio. Ma la verità è che non è semplice definire questa soglia, quindi forse non ha senso neppure porsi questa domanda.
Tra le capacità che attribuiamo a un essere senziente c’è la capacità di decidere. Le macchine sono in grado di farlo?
Un computer non ha capacità di scelta, ma noi abbiamo bisogno anche di macchine che prendano decisioni al posto nostro. Per esempio quando ci sono scelte che vanno fatte molto velocemente o che non meritano che ci spendiamo del tempo, come nel caso dell’autocompletamento delle parole quando scriviamo un messaggio con lo smarthphone. Potremmo specificare un algoritmo secondo cui va presa una decisione, ma in molti casi non lo conosciamo: il machine learning è la risposta alla necessità umana di far prendere decisioni alla macchina, perché consente di addestrarla in base a un gran numero di decisioni già prese.
Cos’è il machine behavior?
Anche se siamo stati noi umani a progettarle, poiché la macchine e le interazioni tra loro e con gli esseri umani sono sempre più complesse il loro comportamento non è immediatamente prevedibile. Il machine behaviour è una nuova scienza che si propone di studiarne il comportamento osservandolo dall’esterno. —
Riproduzione riservata © Il Piccolo