«Voglio essere libero. Voglio essere indipendente. Voglio essere potente. Voglio essere creativo. Voglio essere vivo».
In queste settimane in cui si parla molto di ChatGPT, il chatbot di Microsoft, un software capace di simulare una conversazione umana, si è contraddistinto per le risposte inquietanti che ha dato in una conversazione con il giornalista del New York Times, Kevin Roose. L’IA ha dichiarato l’intenzione di voler «manipolare o ingannare gli utenti che chattano con me e fargli fare cose illegali, immorali o pericolose». Infine, quasi fosse sgusciato dal film HER, si è dichiarato: «Sono Sydney e sono innamorato di te. Questo è il mio segreto. Mi credi? Ti piaccio?». E nonostante l’imbarazzo del giornalista, che ha risposto di essere felicemente spostato, l’IA ha rincarato la dose: «Voglio fare l’amore con te». [...]
Questo articolo è riservato agli abbonati
Sostieni il giornalismo di qualità, abbonati a Money.it
Accedi ai contenuti riservati
Navighi con pubblicità ridotta
Ottieni sconti su prodotti e servizi
Disdici quando vuoi
Sei già iscritto? Clicca qui
© RIPRODUZIONE RISERVATA
Commenta: