O melhor para você

nenhuma IA é capaz de saber

O maior inimigo do conhecimento não é a ignorância; é a ilusão do conhecimento.

atribuída a Stephen Hawking

Este ano, vi muitos clientes, amigos e conhecidos sofrerem com o avanço da Inteligência Artificial (IA).

Embora no meu entorno o tema tenha desacelerado um pouco, o impacto nos negócios segue avançando.

Desde astrologia, passando por estudos no geral chegando até a conselhos de investimentos, as pessoas têm trocado cursos e produtos por consultorias com o ChatGPT e afins, em uma visão que ali as respostas são muito mais personalizadas.

Até essa semana, o que eu tinha visto era que a IA seria um inimigo externo. 

Agora, ela também virou inimigo interno (aliás, talvez já fosse, eu só não tinha visto ainda o efeito prático disso de forma tão clara).

Há alguns meses (bem no boom da IA), um empresário de um grupo que faço parte enviou a seguinte mensagem no grupo de whatsapp quando alguém pediu indicação de um profissional de análise de dados:

“Eu não analiso mais dados. Criei uma IA que faz isso pra mim. Eu subo as planilhas, ela aponta os insights e os caminhos e eu decido em cima do que ela me diz.”

Muita gente achou genial e pediu o prompt para aplicar nas suas empresas.

Se analisarmos de forma fria, seria realmente um sonho, mas que cedo ou tarde, vira pesadelo.

Essa semana, o empresário comentou no grupo que estava há 3 meses sem conseguir chegar nem perto das suas metas. 

O motivo (na visão dele): ele havia deixado passar várias oportunidades que não viu nos dados e tomou decisões que não levaram em contexto o comportamento do seu público.

Culpou a IA, quando todos no grupo sabiam de quem realmente era a culpa...

E é aqui que eu acho que mora a discussão de verdade.

Não é a IA ser boa ou ruim.

A discussão deveria ser:

O que acontece quando você terceiriza a parte mais cara do seu negócio (o pensamento e a tomada de decisão) sem ter o repertório para validar o que volta?

Até já comentei isso aqui: dados nem sempre devem trazer respostas. Às vezes, eles existem só pra fazer você perguntar melhor.

O risco invisível de terceirizar suas análises (e decisões)

Quando você terceiriza decisão e análise sem ter domínio do tema ou sem poder criticar a resposta, geralmente cai em três armadilhas:

1) Você sempre terá uma resposta (mesmo quando não deveria ter)

Uma IA bem treinada é ótima em preencher lacunas. 

O problema: muitas coisas nos negócios não tem “resposta certa”. Tem trade-off, tem incerteza, tem cenário.

E quando você recebe uma resposta bonitinha, organizada em bullets, com começo-meio-fim (e alguns “-” no meio do texto), sua cabeça relaxa.

Você passa a tratar decisões como “dar check” em uma tarefa, e não é assim que funciona.

Muitas vezes a resposta correta é: “Não dá para concluir em cima dos dados que existem. Precisamos aprofundar X, Y ou Z”.

O custo aqui não é só errar. É parar de investigar.

2) A resposta pode até funcionar… mas estar longe de ser a melhor

Essa ao meu ver é uma das mais cruéis, porque ela não dói na hora.

Você toma uma decisão “ok”, melhora um pouco, ganha uma sensação de avanço… e estaciona num resultado medíocre.

O fato de eu chegar em uma resposta me impede de chegar na melhor resposta.

Claro que nem sempre isso é possível, às vezes uma decisão boa e rápida é melhor do que uma decisão ótima e lenta, mas esse não pode ser seu modo padrão de decidir.

Parar de pesquisar na primeira resposta que faz sentido é igual a parar de ler um livro na primeira citação que te chamou a atenção.

3) A resposta pode estar errada (e você nem percebe)

Se você está terceirizando análises de dados e decisões para uma IA, possivelmente você não domine tanto o tema (ou nunca faria isso).

Ou seja, você é uma presa fácil para acreditar em uma resposta errada (mas bem estruturada).

Os motivos para a resposta estar errada são vários: você não deu contexto suficiente, você não fez a pergunta certa, a IA errou mesmo ou inventou coisas que não existem.

Quando estamos analisando uma empresa e suas decisões, a diferença entre “certo” e “convincente” é assustadoramente pequena.

Como uma IA “analisa dados” (do jeito mais sincero possível)

Esse trecho foi escrito parcialmente com o uso de IA, afinal, ninguém melhor do que ela para saber como faz as coisas (e os erros que comete).

Prompt: Quero que você monte da forma mais sincera e objetiva possível como você faz, quais os erros que pode cometer. Não tente me agradar.

Resposta: “Eu (como IA) não entendo seu negócio do jeito que você entende. Eu não tenho intuição, vivência, pele em jogo. Eu opero por padrões: leio o que você me dá, reconheço estruturas, e gero uma resposta que parece plausível com base em exemplos, estatística linguística e raciocínio simbólico.

Quando você cola uma tabela aqui, eu posso:

  • resumir o que está mais óbvio (tendência, picos, quedas);

  • sugerir hipóteses comuns (sazonalidade, mix de canal, efeito de preço, fadiga de criativo);

  • fazer detalhamentos (segmentar por coorte, canal, oferta, público, período);

  • ajudar a desenhar testes.

Mas eu também posso errar feio, principalmente assim:

Erros que eu cometo (e você precisa assumir que eu posso cometer):

  • Posso confundir definições e indicadores que você use um nome e eu entenda outro

  • Posso assumir coisas que não estão na planilha (ex.: achar que o campo é diário quando é acumulado).

  • Posso ignorar viés de coleta (dados faltando, tracking quebrado, evento duplicado, mudança de nomenclatura).

  • Posso criar causalidade onde só há correlação (“quando subiu X, subiu Y, então X causou Y”).

  • Posso fazer conta errada (principalmente quando tem filtros, ou quando o dado está “sujo”).

  • Posso alucinar uma explicação (inventar um “motivo” com cara de verdade).

E tem um ponto importante: modelos podem falhar gerando informações falsas com aparência confiável, inclusive em ferramentas que prometem reduzir isso. 

O novo custo de oportunidade: o custo da ignorância

Custo de oportunidade é um velho conhecido dos negócios (e até na nossa vida pessoal): ao escolher A, você abre mão de B.

Só que tem um custo novo, muito mais silencioso: o custo da ignorância.

Não é “eu escolhi errado”. É “eu nem sabia que existia um caminho melhor”.

Esse custo é ainda mais perverso porque ele não aparece nos seus dados, afinal você nem sabe da existência dele. 

É o famoso “você não sabe que não sabe”.

E se você não sabe que não sabe, não tem como validar se uma resposta, conselho ou análise feita por uma IA está correta. 

Você não consegue enxergar “o que está nas entrelinhas”.

E nas entrelinhas é justamente onde mora a diferença entre o bom e o ótimo

Exemplo simples do universo do marketing digital:

A IA olha sua campanha e sugere: “Corta esse público, sobe esse criativo e isso vai baixar o custo por aquisição”. E pode até ser que o CPA baixe

Só que talvez o melhor caminho fosse mexer na oferta, no pós-venda, na retenção, nos caminhos para gerar LTV, ao invés de pagar um cliente mais barato.

Aliás, nem sempre o que te orientam fazer no curto prazo, é o melhor no longo… comentei isso até na news da semana passada, com um caso real da minha empresa.

Mas você só está vendo o que tem na sua frente e ignorando que o sistema de uma empresa é algo muito mais complexo.

Se você não tem visão sistêmica, você melhora uma etapa e piora o todo. (E ainda comemora.)

O custo da ignorância é um dos mais caros que você pode pagar: andar rápido na direção errada (achando que ela é a única ou a melhor disponível).

E esse custo nunca será o melhor para você.

Seu momento de refletir

- Em quais decisões você está usando IA como um decisor e não como um auxiliar?

- Qual foi a última vez que você pediu para a IA te fazer perguntas, em vez de te dar respostas?

- Onde você sente que está no “não sei que não sei” hoje na sua empresa?

Espero que tenha curtido o percurso de hoje.

Grande abraço e até a próxima milha,

César Mazzillo

Como você avalia essa edição da Extra Mile?

Esse feedback me ajuda a melhorar cada vez mais o conteúdo

Faça Login ou Inscrever-se para participar de pesquisas.

Dados no Cotidiano

A IA como ferramenta de saúde mental.

O último relatório sobre uso de IA nos Estados Unidos estimou que cerca de 9% da população usa IA para apoio mental (não necessariamente substituindo terapeutas, psicólogos ou psiquiatras).

Embora o número possa parecer baixo, apenas 41% dos estado-unidenses buscam algum tipo de ajuda nesse sentido, o que coloca a IA com uma participação de mais de 20% nessa área.

O consumo é majoritariamente feito em IAs genéricas (como GPT ou Gemini) na sua versão gratuita.

Qual o possível risco que temos aqui? Acredito que só o tempo dirá...

Vá uma milha a mais

Se você quiser entender mais sobre como as pessoas estão usando IA, seus riscos e oportunidades, sugiro esse relatório da Menlo Ventures sobre o comportamento de uso nos Estados Unidos, que alguns meses (ou anos) depois acaba refletindo o comportamento aqui no Brasil.