group-telegram.com/girafabionica/2056
Last Update:
A questão não é se a IA vai matar a humanidade, mas quando, diz pesquisador
Eliezer Shlomo Yudkowsky provoca a reflexão com uma metáfora sobre extraterrestres. Para ele, precisamos pensar na inteligência artificial como "uma civilização alienígena inteira, pensando em milhões de vezes a velocidade humana, diante de criaturas que são, na sua perspectiva, muito estúpidas e lentas".
Ver também: IA avançada poderia exterminar humanidade, alertam pesquisadores de Oxford | Impedir o desenvolvimento de IA é mais importante do que prevenir uma guerra nuclear, afirma Yudkowsky | Por que cientistas temem futuro catastrófico causado pela inteligência artificial | Inteligência artificial amigável | "O perigo da IA é bem maior que o de ogivas nucleares. Bem maior!"
BY Girafa Biônica: Tecnologia e Sociedade
Share with your friend now:
group-telegram.com/girafabionica/2056