Per capire perché sempre più spesso si sente parlare dei pericoli legati allo sviluppo dell’intelligenza artificiale, evocando persino uno “scenario alla Terminator” e per comprendere meglio cosa ha spinto Elon Musk e il migliaio di suoi colleghi a firmare la lettera pubblicata su Future of Life – in cui si chiedono sei mesi di sospensione alle società e aziende che lavorano allo sviluppo dell’IA – è bene fare un passo indietro e approfondire il concetto futurista di “singolarità tecnologica”, che indica il momento in cui la tecnologia acquisisce una capacità intellettiva pari o superiore a quella dell’uomo.
Come spesso accade, la nozione è stata anticipata dalla fantascienza (su tutti, negli anni Cinquanta, Fredric Brown con il racconto breve, La risposta e Isaac Asimov con L’ultima domanda) per poi insinuarsi nella mente degli scienziati che l’hanno affrontata da punti diversi, giungendo anche a conclusioni radicalmente opposte, seguendo sostanzialmente due approcci opposti: integrato o apocalittico. [...]
Questo articolo è riservato agli abbonati
Sostieni il giornalismo di qualità, abbonati a Money.it
Accedi ai contenuti riservati
Navighi con pubblicità ridotta
Ottieni sconti su prodotti e servizi
Disdici quando vuoi
Sei già iscritto? Clicca qui
© RIPRODUZIONE RISERVATA
Commenta:
Vincenzo -Angelini -151168
·Maggio 2023
Le tesi di Kurzweill sono le medesime di Klaus Schwab e di DAVOS ed del WEF che prevedono , alla fine, di eliminare 4 miliardi di MANGIATORI INUTILI!! Ma possibile che nessuno si ribella?? Nessun politico, nessuna Istituzione ??