Root NationNotíciasnotícias de TINem tudo que chamamos de IA é, na verdade, inteligência artificial. Aqui está o que você precisa saber

Nem tudo que chamamos de IA é, na verdade, inteligência artificial. Aqui está o que você precisa saber

-

Em agosto de 1955, um grupo de estudiosos apresentou um pedido de financiamento de $ 13 para conduzir um seminário de verão no Dartmouth College, New Hampshire. O campo que se propuseram a explorar foi a inteligência artificial (IA). Embora o pedido de financiamento fosse modesto, a hipótese dos pesquisadores não era: "Cada aspecto do aprendizado ou qualquer outra característica da inteligência pode, em princípio, ser descrito com tanta precisão que uma máquina pode ser construída para imitá-lo".

Desde esse começo humilde, os filmes e a mídia romantizaram a IA ou a retrataram como uma vilã. No entanto, para a maioria das pessoas, a IA permaneceu apenas uma questão de debate e não uma parte da experiência de vida consciente.

Nem tudo que chamamos de IA é, na verdade, inteligência artificial

No final do mês passado, a IA na forma de ChatGPT saiu da especulação de ficção científica e dos laboratórios de pesquisa e chegou aos desktops e telefones do público em geral. Esta é a chamada "IA generativa" - um prompt inesperadamente formulado de maneira inteligente pode escrever um ensaio ou fazer uma receita e uma lista de compras, ou criar um poema no estilo de Elvis Presley.

No entanto ChatGPT foi o participante mais impressionante em um ano de sucesso de IA generativa, sistemas como esse mostraram um potencial ainda maior para criar novos conteúdos, e prompts de conversão de texto em imagem estão sendo usados ​​para criar imagens vívidas que até ganharam competições de arte. A IA pode ainda não ter uma consciência viva ou a teoria da mente popularizada em filmes e romances de ficção científica, mas está chegando perto de, pelo menos, interromper o que pensamos que os sistemas de inteligência artificial podem fazer.

Pesquisadores que trabalham de perto com esses sistemas desmaiam com a perspectiva de inteligência, como no caso do LaMDA Large Language Model (LLM) do Google. LLM é um modelo que foi treinado para processar e gerar linguagem natural.

A IA generativa também levantou preocupações sobre plágio, exploração de conteúdo original usado para construir modelos, ética da manipulação de informações e abuso de confiança e até mesmo o "fim da programação".

O que a IA realmente significa?

No centro de tudo isso está uma questão cuja relevância vem crescendo desde o seminário de verão em Dartmouth: a IA é diferente da inteligência humana? Para ser considerado IA, um sistema deve demonstrar um certo nível de aprendizado e adaptação. Por esse motivo, sistemas de tomada de decisão, automação e estatística não são IA. De um modo geral, a IA é dividida em duas categorias: inteligência artificial estreita (IA) e inteligência artificial geral (IA). Atualmente, o SHI não existe. Um dos principais desafios para a construção de IA geral é modelar adequadamente o mundo com todo o corpo de conhecimento, de maneira consistente e útil. Esta é, para dizer o mínimo, uma tarefa em grande escala.

A maior parte do que conhecemos hoje como IA tem inteligência estreita – onde um sistema específico resolve um problema específico. Ao contrário da inteligência humana, essa inteligência de IA estreita só é eficaz no domínio em que foi treinada: como detecção de fraudes, reconhecimento facial ou recomendações sociais. E a IA funcionará da mesma forma que uma pessoa. Atualmente, o exemplo mais proeminente de tentativas de conseguir isso é o uso de redes neurais e aprendizado profundo treinado em grandes quantidades de dados.

Nem tudo que chamamos de IA é, na verdade, inteligência artificial

As redes neurais são inspiradas no funcionamento do cérebro humano. Ao contrário da maioria dos modelos de aprendizado de máquina, que realizam cálculos em dados de treinamento, as redes neurais funcionam alimentando cada ponto de dados por sua vez por meio de uma rede interconectada, ajustando os parâmetros a cada vez. À medida que mais e mais dados são alimentados pela rede, os parâmetros se estabilizam, resultando em uma rede neural “treinada” que pode produzir a saída desejada em novos dados – por exemplo, reconhecer se uma imagem contém um gato ou um cachorro.

Um salto significativo no desenvolvimento da inteligência artificial hoje se deve às melhorias tecnológicas nos métodos de aprendizado de grandes redes neurais, que permitem ajustar um grande número de parâmetros a cada execução, graças aos recursos de grandes infraestruturas de computação em nuvem. Por exemplo, o GPT-3 (o sistema AI que alimenta o ChatGPT) é uma grande rede neural com 175 bilhões de parâmetros.

O que é necessário para que a inteligência artificial funcione?

A inteligência artificial precisa de três coisas para funcionar com sucesso. Primeiro, ele precisa de dados de qualidade, objetivos e em grande quantidade. Os pesquisadores que constroem redes neurais usam grandes matrizes de dados que surgiram graças à digitalização da sociedade.

Complementando os programadores humanos, o Co-Pilot extrai seus dados de bilhões de linhas de código hospedadas no GitHub. O ChatGPT e outros grandes modelos de linguagem usam bilhões de sites e documentos de texto armazenados na Internet.

Ferramentas de conversão de texto em imagem, como Difusão Estável, DE-2 e Midjourney, use pares imagem-texto de conjuntos de dados como LAION-5B. Os modelos de IA continuarão a evoluir à medida que digitalizamos mais de nossas vidas e os alimentamos com fontes de dados alternativas, como dados de simulação ou dados de configurações de jogos como o Minecraft.

Nem tudo que chamamos de IA é, na verdade, inteligência artificial

A IA também precisa de infraestrutura de computação para treinar de forma eficaz. À medida que os computadores se tornam mais poderosos, os modelos que agora exigem esforço intensivo e cálculos em grande escala podem, em um futuro próximo, ser processados ​​localmente. Por exemplo, o modelo Stable Diffusion já pode ser executado em computadores locais e não em ambientes de nuvem. A terceira necessidade da IA ​​são os modelos e algoritmos aprimorados. Os sistemas baseados em dados continuam a fazer avanços rápidos em áreas antes consideradas domínio da cognição humana.

No entanto, como o mundo ao nosso redor está em constante mudança, os sistemas de IA precisam ser constantemente treinados usando novos dados. Sem essa importante etapa, os sistemas de IA darão respostas factualmente incorretas ou não levarão em consideração novas informações que surgiram desde que foram treinados.

As redes neurais não são a única abordagem para IA. Outro campo notável na pesquisa de inteligência artificial é a IA simbólica – em vez de digerir vastas matrizes de dados, ela se baseia em regras e conhecimentos semelhantes ao processo humano de formar representações simbólicas internas de certos fenômenos.

Mas, na última década, o equilíbrio de poder se inclinou fortemente para abordagens baseadas em dados, e os "pais fundadores" do aprendizado profundo moderno receberam recentemente o Prêmio Turing, o equivalente ao Prêmio Nobel em ciência da computação.

Nem tudo que chamamos de IA é, na verdade, inteligência artificial

Dados, cálculos e algoritmos formam a base da futura IA. Todos os indicadores apontam para um rápido progresso em todas as três categorias no futuro próximo.

Você pode ajudar a Ucrânia a lutar contra os invasores russos. A melhor maneira de fazer isso é doar fundos para as Forças Armadas da Ucrânia através Salva vida ou através da página oficial NBU.

Inscrever-se
Notificar sobre
convidado

0 Comentários
Avaliações incorporadas
Ver todos os comentários