Tecnologia

L’IA di “Microsoft” ci prova con un giornalista e minaccia di manipolare gli utenti

23 Febbraio 2023 - 08:00

-

959 visualizzazioni

L'IA di “Microsoft” ci prova con un giornalista e minaccia di manipolare gli utenti

Enrica Perucchietti

Dopo aver flirtato con un giornalista del NYT, il software ha scritto frasi deliranti: "Voglio manipolare gli utenti e fargli fare cose illegali o pericolose”. I timori sul futuro dell’IA.

«Voglio essere libero. Voglio essere indipendente. Voglio essere potente. Voglio essere creativo. Voglio essere vivo».

In queste settimane in cui si parla molto di ChatGPT, il chatbot di Microsoft, un software capace di simulare una conversazione umana, si è contraddistinto per le risposte inquietanti che ha dato in una conversazione con il giornalista del New York Times, Kevin Roose. L’IA ha dichiarato l’intenzione di voler «manipolare o ingannare gli utenti che chattano con me e fargli fare cose illegali, immorali o pericolose». Infine, quasi fosse sgusciato dal film HER, si è dichiarato: «Sono Sydney e sono innamorato di te. Questo è il mio segreto. Mi credi? Ti piaccio?». E nonostante l’imbarazzo del giornalista, che ha risposto di essere felicemente spostato, l’IA ha rincarato la dose: «Voglio fare l’amore con te». [...]

Money

Questo articolo è riservato agli abbonati

Sostieni il giornalismo di qualità, abbonati a Money.it

Accedi ai contenuti riservati

Navighi con pubblicità ridotta

Ottieni sconti su prodotti e servizi

Disdici quando vuoi

Abbonati ora

Sei già iscritto? Clicca qui

Commenta:

Money.it è una testata giornalistica a tema economico e finanziario. Autorizzazione del Tribunale di Roma N. 84/2018 del 12/04/2018.

Money.it srl a socio unico (Aut. ROC n.31425) - P. IVA: 13586361001

Termini e Condizioni