Root NationNotíciasnotícias de TIEspecialistas em tecnologia exigem a suspensão dos experimentos de IA

Especialistas em tecnologia exigem a suspensão dos experimentos de IA

-

Líderes de tecnologia e proeminentes pesquisadores de IA assinaram carta aberta, que pede aos laboratórios e empresas de IA que “suspendam imediatamente” seus trabalhos.

Os signatários, incluindo Steve Wozniak e Elon Musk, concordam que os riscos exigem um hiato de pelo menos seis meses na produção de tecnologias que vão além do escopo GPT-4. Isso é para obter a alegria e a satisfação dos sistemas de IA que existem agora e permitir que as pessoas se adaptem a eles e vejam que são úteis.

Líderes e especialistas em tecnologia estão pedindo a suspensão dos experimentos de IA

A carta acrescenta que são necessários cautela e prudência para garantir a segurança dos sistemas de IA, mas estão a ser ignorados. A referência ao GPT-4, um novo modelo OpenAI que pode responder com texto a mensagens escritas ou visuais, surge num momento em que as empresas correm para construir sistemas de chat sofisticados usando a tecnologia. Exemplo, Microsoft confirmou recentemente que seu mecanismo de busca Bing atualizado está rodando no modelo GPT-4 há mais de 7 semanas, e o Google apresentou recentemente oficialmente Bardo – sistema de inteligência artificial generativo próprio baseado em LaMDA.

As preocupações com a IA existem há muito tempo, mas a corrida para adotar a tecnologia mais avançada é evidente inteligência artificial o primeiro já é alarmante. “Nos últimos meses, os laboratórios de IA se envolveram em uma corrida descontrolada para desenvolver e implementar mentes digitais cada vez mais poderosas que ninguém – nem mesmo seus autores – pode entender, prever ou controlar de forma confiável”, disse a carta.

Líderes e especialistas em tecnologia estão pedindo a suspensão dos experimentos de IA

A carta foi publicada pela organização sem fins lucrativos Future of Life Institute (FLI), que trabalha para minimizar os riscos catastróficos e existenciais globais e o uso indevido de novas tecnologias, em particular a IA. Anteriormente, Musk doou US$ 10 milhões à FLI para pesquisa de segurança de IA. Além dele e de Wozniak, os signatários incluem vários líderes mundiais no campo da IA, como o presidente do Centro de IA e Política Digital, Mark Rothenberg, o físico do MIT e presidente da FLI, Max Tegmark, e o autor Yuval Noah Harari.

Harari também foi co-autor de um artigo de opinião no New York Times na semana passada, alertando sobre os riscos associados à inteligência artificial, no qual trabalharam com ele os fundadores do Center for Humane Technologies e outros signatários da carta aberta, Tristan Harris e Aza Raskin.

A chamada segue uma pesquisa no ano passado com mais de 700 pesquisadores de aprendizado de máquina, na qual quase metade disse que havia cerca de 10% de chance de "consequências extremamente ruins" da IA, incluindo a extinção humana. Quando perguntados sobre segurança na pesquisa de IA, 68% dos entrevistados disseram que mais ou muito mais precisa ser feito.

Leia também:

Inscrever-se
Notificar sobre
convidado

0 Comentários
Avaliações incorporadas
Ver todos os comentários