Categorias: notícias de TI

O ex-chefe do Google comparou inteligência artificial a armas nucleares

O ex-CEO do Google Eric Schmidt comparou a inteligência artificial (IA) às armas nucleares e pediu um regime de dissuasão, semelhante à destruição mútua assegurada, que impeça as nações mais poderosas do mundo de se destruírem.

Schmidt falou sobre os perigos da inteligência artificial no Fórum de Segurança de Aspen em 22 de julho durante uma discussão sobre segurança nacional e IA. Quando questionado sobre o valor da moralidade na tecnologia, Schmidt explicou que ele próprio era ingênuo sobre o poder da informação nos primeiros dias do Google. Ele então pediu que a tecnologia combinasse melhor com a ética e a moral das pessoas a quem servem e fez uma estranha comparação entre inteligência artificial e armas nucleares.

Schmidt falou sobre o futuro próximo, em que a China e os Estados Unidos precisam concluir um acordo sobre inteligência artificial. "Nos anos 50 e 60, acabamos criando um mundo onde havia uma regra de 'sem surpresas' para testes nucleares e, como resultado, eles foram proibidos", disse Schmidt. "Este é um exemplo do equilíbrio entre confiança ou falta de confiança, esta é a regra de 'sem surpresas'. Estou muito preocupado que a visão dos EUA da China como corrupta ou comunista ou o que quer que seja, e a visão da China da América como um perdedor... algo incompreensível começará... .

A IA e o aprendizado de máquina são uma tecnologia fascinante e muitas vezes incompreendida. Ele basicamente não é tão inteligente quanto as pessoas pensam. Ele pode criar obras de arte em nível de obra-prima, vencer pessoas no Starcraft II e fazer ligações telefônicas rudimentares para os usuários. No entanto, as tentativas de fazê-lo realizar tarefas mais difíceis, como dirigir um carro em uma grande cidade, não foram bem-sucedidas.

Schmidt fala sobre um futuro próximo imaginário em que tanto a China quanto os EUA estarão preocupados com questões de segurança, o que os forçará a entrar em uma espécie de tratado para conter a IA. Ele relembrou os anos 1950 e 60, quando a diplomacia desenvolveu uma série de controles em torno das armas mais mortíferas do planeta. Mas levou uma década de explosões nucleares e, mais importante, a destruição de Hiroshima e Nagasaki, para que a paz chegasse antes da conclusão do Tratado de Proibição de Testes Nucleares, SALT II e outras legislações marcantes.

Duas cidades japonesas destruídas pela América no final da Segunda Guerra Mundial tiraram a vida de dezenas de milhares de pessoas e provaram ao mundo o eterno horror das armas nucleares. Então os governos da Rússia e da China correram para adquirir armas. A forma como vivemos com a possibilidade de que essas armas sejam usadas é o que é conhecido como Destruição Mutuamente Garantida (MAD), uma teoria de dissuasão que garante que se um país lançar uma arma nuclear, é possível que qualquer outro o faça. Não usamos as armas mais destrutivas do planeta por causa da possibilidade de destruir pelo menos a civilização ao redor do mundo.

Apesar dos comentários coloridos de Schmidt, não queremos ou precisamos de MAD para IA. Primeiro, a IA ainda não provou seu poder destrutivo em comparação com as armas nucleares. Mas as pessoas no poder temem essa nova tecnologia, e geralmente pelos motivos errados. As pessoas até propuseram entregar o controle de armas nucleares para uma inteligência artificial, acreditando que seria um árbitro melhor de seu uso do que um humano.

O problema com a inteligência artificial não é que ela tenha o poder potencialmente destrutivo de uma arma nuclear. A questão é que a inteligência artificial é tão boa quanto as pessoas que a desenvolveram, e que carrega os valores de seus criadores. A IA sofre com o clássico problema de "garbage in, garbage out": algoritmos racistas criam robôs racistas, e toda IA ​​carrega os preconceitos de seus criadores.

Demis Hassabis, CEO da DeepMind, empresa que treinou a IA que supera os jogadores de Starcraft II, parece entender isso melhor do que Schmidt. Em uma entrevista em julho no podcast de Lex Friedman, Friedman perguntou a Hassabis como uma tecnologia tão poderosa quanto a IA pode ser controlada e como o próprio Hassabis pode evitar ser corrompido por esse poder.

A resposta de Khasabis é sobre ele mesmo. "A inteligência artificial é uma ideia muito grande", disse ele. "É importante quem cria a IA, de quais culturas eles vêm e quais são seus valores. Os sistemas de IA aprenderão por si mesmos... mas o sistema permanecerá impresso com a cultura e os valores dos autores do sistema."

A inteligência artificial é um reflexo de seu autor. Não pode arrasar uma cidade com uma explosão de 1,2 megaton. A menos que uma pessoa lhe ensine isso.

Você pode ajudar a Ucrânia a lutar contra os invasores russos. A melhor maneira de fazer isso é doar fundos para as Forças Armadas da Ucrânia através Salva vida ou através da página oficial NBU.

Leia também:

Partilhar
Julia Alexandrova

Café. Fotógrafo. Escrevo sobre ciência e espaço. Acho que é muito cedo para conhecermos alienígenas. Eu acompanho o desenvolvimento da robótica, apenas no caso...

Deixe um comentário

O seu endereço de e-mail não será publicado. Os campos obrigatórios são marcados com*