OpenAI, desenvolvedora do ChatGPT, começou a trabalhar com o Departamento de Defesa dos EUA para criar ferramentas e serviços para os militares. Esta notícia chegou alguns dias depois companhia atualizou seus Termos de Serviço para remover uma cláusula que proibia o uso de sua IA para fins militares.
De acordo com a Bloomberg, a OpenAI está trabalhando com o Departamento de Defesa e a Agência de Projetos de Pesquisa Avançada de Defesa (DARPA) em ferramentas de segurança cibernética de código aberto para o governo. Faz parte do programa AI Cyber Challenge (AIxCC) que a DARPA lançou no final do ano passado.
A AIxCC reúne empresas líderes em IA que trabalharão com a DARPA para disponibilizar suas tecnologias e conhecimentos líderes e desafiar a concorrência. Além da OpenAI, a Anthropic colaborará com a DARPA, Google que Microsoft, e os seus esforços centrar-se-ão em ajudar a desenvolver sistemas de segurança cibernética de última geração.
Segundo o relatório, a OpenAI também está em negociações com o governo dos EUA para resolver alguns problemas mais urgentes no país. No entanto, a vice-presidente de assuntos globais da OpenAI, Anna Macanjou, disse que a OpenAI ainda mantém a proibição de “usar sua tecnologia para desenvolver armas, destruir propriedades ou prejudicar pessoas”.
Deixe-me lembrá-lo, escrevemos recentemente que a OpenAI desenvolveu uma nova estratégia, que supostamente garantirá que a sua IA não seja utilizada para espalhar desinformação no contexto das eleições presidenciais dos EUA. O CEO da OpenAI, Sam Altman, enfatizou que a eleição é um grande negócio e acha bom que a empresa esteja preocupada e trabalhando nisso.
Isso aconteceu apenas um mês depois que a inteligência artificial do Bing Microsoft foi acusado de oferecer respostas falsas a perguntas sobre algumas eleições que ocorreriam em 2023. Microsoft também introduziu uma nova ferramenta de detecção de deepfake que ajudará os partidos políticos a provar a autenticidade ou, inversamente, a falsidade de algumas imagens ou anúncios políticos.
Leia também: