Portal de Notícias Administrável desenvolvido por Hotfix

G1 - Tecnologia

O que esperar da inteligência artificial em 2025

.


Áreas como saúde, exploração espacial, neurociência ou mudança climática, entre outras, serão beneficiadas ainda mais pelo avanço da informática, dizem especialistas A inteligência artificial está marcando um momento definidor na história da tecnologia — e o ano de 2025 trará ainda mais surpresas.

Getty Images

A inteligência artificial está marcando um momento definidor na história da tecnologia — e o ano de 2025 trará ainda mais surpresas.

Não é fácil fazer uma previsão do que esperar, mas é possível destacar tendências e desafios que definem o futuro imediato da IA para o próximo ano.

Entre eles, o desafio dos chamados "médico centauro" ou "professor centauro", fundamental para quem está desenvolvendo inteligência artificial.

A explosão da ciência baseada em IA

A IA virou uma ferramenta fundamental para se enfrentar grandes desafios científicos. Áreas como saúde, astronomia e exploração espacial, neurociência ou mudanças climáticas, entre outras, vão se beneficiar ainda mais no futuro.

O programa AlphaFold — desenvolvido pelo grupo Alphabet, do Google, e que ganhou o Prêmio Nobel em 2024 — determinou a estrutura tridimensional de 200 milhões de proteínas, praticamente todas as conhecidas.

Seu desenvolvimento representa um avanço significativo na Biologia Molecular e na Medicina. Isso facilita a concepção de novos medicamentos e tratamentos. Em 2025, isso começará a acontecer — e com acesso gratuito ao AlphaFold para quem for desenvolver remédios e tratamentos.

Já a rede ClimateNet utiliza redes neurais artificiais para realizar análises espaciais e temporais precisas de grandes volumes de dados climáticos, essenciais para compreender e mitigar o aquecimento global.

A utilização do ClimateNet será essencial em 2025 para prever eventos climáticos extremos com maior precisão.

Meta AI no WhatsApp: o que é a nova ferramenta de inteligência artificial e como utilizar

Leia também:

Justiça dos EUA suspende tentativa de aumentar regulação sobre operadoras de internet

'Bug do milênio' completa 25 anos: por que o caos digital na virada do século nunca aconteceu

Diagnósticos médicos e decisões jurídicas: o papel da IA

A justiça e a Medicina são considerados campos de alto risco. Neles é mais urgente do que em qualquer outra área estabelecer sistemas para que os humanos tenham sempre a decisão final.

Os especialistas em IA trabalham para garantir a confiança dos usuários, para que o sistema seja transparente, que proteja as pessoas e que os humanos estejam no centro das decisões.

Aqui entra em jogo o desafio do "doutor centauro". Centauros são modelos híbridos de algoritmo que combinam análise formal de máquina e intuição humana.

Um "médico centauro + um sistema de IA" melhora as decisões que os humanos tomam por conta própria e que os sistemas de IA tomam por conta própria.

O médico sempre será quem aperta o botão final; e o juiz quem determina se uma sentença é justa.

Os especialistas acreditam que em um futuro próximo os médicos terão programas que diagnosticarão doenças sozinhos

Getty Images

A IA que tomará decisões no nosso lugar

Agentes autônomos de IA baseados em modelos de linguagem são a meta para 2025 de grandes empresas de tecnologia como OpenAI (ChatGPT), Meta (LLaMA), Google (Gemini) ou Anthropic (Claude).

Até agora, estes sistemas de IA fazem recomendações. Em 2025, no entanto, espera-se que eles tomem decisões por nós.

Os agentes de IA realizarão ações personalizadas e precisas em tarefas que não sejam de alto risco, sempre ajustadas às necessidades e preferências do usuário. Por exemplo: comprar uma passagem de ônibus, atualizar a agenda, recomendar uma compra específica e executá-la.

Eles também poderão responder nosso e-mail — tarefa que nos toma muito tempo diariamente.

Nessa linha, a OpenAI lançou o AgentGPT, e o Google lançou o Gemini 2.0. Essas plataformas podem ser usadas para o desenvolvimento de agentes autônomos de IA.

Por sua vez, a Anthropic propõe duas versões atualizadas de seu modelo de linguagem Claude: Haiku e Sonnet.

A inteligência artificial permitirá que computadores realizem operações como responder e-mails automaticamente

Getty Images

O uso do nosso computador pela IA

O programa Sonnet consegue usar um computador do mesmo jeito que uma pessoa. Isso significa que ele consegue mover o cursor, clicar em botões, digitar texto e navegar por telas.

Ele também permite funcionalidade para automatizar a área de trabalho. Ele permite que os usuários concedam a Claude acesso e controle sobre certos aspectos de seus computadores pessoais.

Esta capacidade apelidada de "uso do computador" poderá revolucionar a forma como automatizamos e gerimos as nossas tarefas diárias.

No comércio eletrônico, agentes autônomos de IA poderão fazer uma compra no lugar do usuário.

Eles prestarão assessoria na tomada de decisões de negócios, gerenciarão estoques automaticamente, trabalharão com fornecedores de todos os tipos, inclusive logísticos, para otimizar o processo de reabastecimento, atualizarão o status de envio até a geração de faturas, etc.

No setor educacional, eles poderão customizar os planos de estudos dos alunos. Eles identificarão áreas para melhoria e sugerirão recursos de aprendizagem apropriados.

Caminharemos em direção ao conceito de "professor centauro", auxiliado por agentes de IA na educação.

Para evitar erros, alguns sistemas sempre exigirão que as pessoas aprovem operações confidenciais

Getty Images

O botão 'aprovar'

A noção de agentes autônomos levanta questões profundas sobre o conceito de "autonomia humana e controle humano".

O que significa realmente "autonomia"?

Esses agentes de IA criarão a necessidade de pré-aprovação. Quais decisões permitiremos que estas entidades tomem sem a nossa aprovação direta (sem controle humano)?

Enfrentamos um dilema crucial: saber quando é melhor ser "automático" na utilização de agentes autônomos de IA e quando é necessário tomar a decisão, ou seja, recorrer ao "controle humano" ou à "interação humano-IA".

O conceito de pré-aprovação vai ganhar grande relevância na utilização de agentes autônomos de IA.

O pequeno ChatGPT no celular

2025 será o ano da expansão dos modelos de linguagem pequena e aberta (SLM).

São modelos de linguagem que futuramente poderão ser instalados num dispositivo móvel, permitindo controlar o nosso telefone por voz de uma forma muito mais pessoal e inteligente do que com assistentes como a Siri.

SLMs são compactos e mais eficientes, não requerem servidores massivos para serem usados. Estas são soluções de código aberto que podem ser treinadas para cenários específicos.

Eles podem respeitar mais a privacidade do usuário e são perfeitos para uso em computadores e celulares de baixo custo.

Eles têm potencial para adoção no nível empresarial. Isto será viável porque os SLMs terão um custo menor, mais transparência e, potencialmente, maior transparência e controle.

Os SLMs permitirão integrar aplicações de recomendações médicas, de educação, de tradução automática, de resumo de textos ou de correção ortográfica e gramatical instantânea. Tudo isso em pequenos dispositivos sem a necessidade de conexão com a internet.

Entre as suas importantes vantagens sociais, eles podem facilitar a utilização de modelos linguísticos na educação em áreas desfavorecidas.

E podem melhorar o acesso a diagnósticos e recomendações com modelos de SLM de saúde especializados em áreas com recursos limitados.

O seu desenvolvimento é essencial para apoiar comunidades com menos recursos.

E podem acelerar a presença do "professor ou médico centauro" em qualquer região do planeta.

Avanços na regulamentação europeia da IA

Em 13 de junho de 2024, foi aprovada a legislação europeia sobre IA, que entrará em vigor em dois anos. Ao longo de 2025, serão criadas normas e padrões de avaliação, incluindo padrões ISO e IEEE.

Em 2020, a Comissão Europeia havia publicado a primeira Lista de Avaliação para IA Confiável (ALTAI). Esta lista inclui sete requisitos: agência humana e supervisão, robustez técnica e segurança, governança e privacidade de dados, transparência, diversidade, não discriminação e equidade, bem-estar social e ambiental e responsabilidade. Essa lista constitui a base das futuras normas europeias.

Ter padrões de avaliação é fundamental para auditar sistemas de IA. Por exemplo: o que acontece se um veículo autônomo sofrer um acidente? Quem assume a responsabilidade? O quadro regulamentar abordará questões como estas.

Mecanismos de governança

Dario Amodei, CEO da Anthropic, em seu ensaio intitulado "Machines of Loving Grace" ("Máquinas de graça amorosa", em tradução livre), de outubro de 2024, expõe a visão das grandes empresas de tecnologia: "Acho que é essencial ter uma visão verdadeiramente inspiradora do futuro, e não apenas um plano para apagar incêndios."

Existem pontos de vista contrastantes de outros pensadores mais críticos. Por exemplo, aquele representado por Yuval Noah Harari e discutido em seu livro Nexus: Uma Breve História das Redes de Informação, da Idade da Pedra À Inteligência Artificial.

Portanto, precisamos de regulamentação. Isso proporciona o equilíbrio necessário para o desenvolvimento de uma IA confiável e responsável e para poder avançar nos grandes desafios para o bem da humanidade destacados por Amodei.

E, com eles, ter os mecanismos de governança necessários como um "plano para apagar incêndios".

*Francisco Herrera Triguero é professor de Inteligência Artificial na Universidade de Granada e diretor do Instituto Andaluz de Pesquisa em Ciência de Dados e Inteligência Computacional na Espanha.

*Este artigo foi publicado no The Conversation e reproduzido sob a licença Creative Commons. Clique aqui para ler a versão original em espanhol.

Meta revela Movie Gen, gerador de vídeos com inteligência artificial

G1 - Tecnologia

Assine o Portal!

Receba as principais notícias em primeira mão assim que elas forem postadas!

Assinar Grátis!

Assine o Portal!

Receba as principais notícias em primeira mão assim que elas forem postadas!

Assinar Grátis!