L’argomento probabilmente più discusso riguardo alle ricadute sociali dell’intelligenza artificiale (IA) è la sua potenziale minacciosità per il mondo umano. Da anni si discute di “singolarità”, “superintelligenza”, “Armageddon” e oggi il pericolo verrebbe dal fatto che si sarebbe prossimi all’intelligenza artificiale generale (IAG).
Gilberto Corbellini, docente di storia della medicina e bioetica alla Sapienza Università di Roma, presenta in questo articolo un confronto tecnico-filosofico tra due giganti: Yoshua Bengio, che invoca guardiani e regole strette per evitare derive di potere e comportamenti «non allineati», e Judea Pearl, che chiede che l’IA impari a pensare per cause e controfattuali, se vogliamo sperare in un allineamento morale. Ma la domanda centrale non è tanto «quando» arriverà l’IAG, quanto «come» la progetteremo (o la non progetteremo) dal punto di vista causale ed etico. (Fonte Scienza in Rete)
