O uso de IA por trás da eficiência de projetos – T2E02

Neste episódio, Júlio Ribeiro e Lucas Tafarello trocam perspectivas sobre um tema que ocupa cada vez mais espaço nas conversas do setor, sobre como a inteligência artificial está chegando ao cotidiano de profissionais de AEC e Manufatura, o que ela já consegue fazer na prática e, principalmente, o que muda para quem projeta, constrói e opera.

Destaques do episódio

LLMs, agentes e machine learning: o que a sigla “IA” esconde

Inteligência artificial é um termo que agrupa conceitos bem distintos. O episódio separa as camadas: os modelos de linguagem natural (LLMs, como ChatGPT, Gemini e Claude) respondem perguntas com base em padrões treinados massivamente. Os agentes de IA vão além, recebem uma missão e executam sequências de tarefas para cumpri-la. Por trás dos dois está o machine learning, a lógica de aprendizado por reforço que permite ao modelo identificar padrões, corrigir erros e evoluir a cada novo dado.

O profissional que a IA não substitui

Ela amplia a distância entre o profissional que atua num nível analítico e aquele que se limitava a tarefas repetitivas. Comparar documentos, categorizar dúvidas recorrentes, transcrever e indexar conteúdo. Esse tipo de trabalho já pode ser automatizado com confiabilidade razoável.

O que permanece humano é a capacidade de formular a pergunta certa e interpretar resultados com contexto. Quando a base de conhecimento começa a migrar para os modelos, o diferencial deixa de ser o que se sabe e passa a ser o que se consegue fazer com o que a IA acessa. Quem já operava num nível analítico ganha ferramentas melhores. Quem se limitava ao operacional vê esse espaço ser ocupado pela automação.

Governança, responsabilidade e segurança: as perguntas que o setor ainda não respondeu

Uma consultoria entregou ao cliente um relatório gerado por IA sem revisão humana. O problema não estava no uso da ferramenta, mas na ausência de um fluxo de validação antes da entrega. Os próprios modelos indicam que podem cometer erros. Desconsiderar isso num produto final é uma falha de processo.

Mais delicado é o cenário de manipulação intencional, há casos em que brechas em sistemas de IA foram exploradas para alterar as respostas fornecidas aos usuários. Quem consulta um modelo sem repertório crítico para checar o resultado fica exposto a erros que não consegue identificar.

A questão de quem responde quando o agente erra ainda não tem resposta consolidada. As organizações chegam a esse limiar depois de já terem colhido os ganhos de eficiência. A governança chega depois, e não antes.

Assista ao episódio completo no YouTube ou ouça no Spotify