Por Que Você Precisa de Uma Política de IA
É fundamental criar uma política corporativa de IA, independentemente de sua empresa planejar usar ferramentas de IA ou não. Uma política clara minimiza os riscos e ajuda os colaboradores a entenderem o que é permitido e o que não é no uso da IA.

Por que as empresas precisam de uma política de IA
E o que o crescimento das ferramentas de IA significa para sua organização
Uma pesquisa recente da McKinsey apresentou um panorama sobre o estado da IA hoje. Pelo menos 79% dos entrevistados tiveram algum contato com IA generativa, e outros 22% a usavam regularmente no trabalho.
Essa exposição acelerada é significativa quando lembramos que o catalisador para o atual aumento de popularidade — o lançamento público do ChatGPT — ocorreu apenas em novembro de 2022. Ao longo de 2023, o conteúdo gerado por IA tornou-se um foco central para empresas e para a mídia. O uso de IA continuou crescendo em 2024 e deve prosseguir nos anos seguintes. O que isso significa para organizações que desejam entender o cenário da IA e gerenciar seu uso no ambiente de trabalho?
Estabelecer diretrizes para IA envolve diversos elementos. Se você estiver pronto para uma análise detalhada sobre como estabelecer diretrizes para uma política de IA, baixe nosso e-book gratuito “Como Criar uma Política de IA”, para mais dicas
Principais Conclusões
Inteligência artificial — o que você não sabe pode prejudicar você
Você pode pensar: “Não usamos IA na minha empresa. Precisamos de uma política?”
Sim! Você precisa de uma política organizacional de IA, independentemente de sua empresa planejar usar a IA ou não.
O objetivo de uma política de IA é garantir a conformidade com comportamentos consistentes e aprovados no uso de ferramentas de IA por todos os colaboradores.
Quer você saiba ou não, os colaboradores já estão usando tecnologias de IA ou podem começar a usá-las em breve. Uma pesquisa recente da Gallup revela o risco. Ela constatou que 44% dos líderes não fazem ideia se suas equipes estão utilizando a IA. Além disso, um relatório da Microsoft constatou que 52% dos colaboradores não querem que seus gestores saibam que estão usando IA por iniciativa própria, ou seja, obtida diretamente pelos próprios colaboradores, sem as devidas proteções em nível corporativo.
A clear AI usage policy ensures everyone understands the rules and the specific context when they can use artificial intelligence. A corporate AI policy eases the decision making burden, so there are no “act now, ask for forgiveness later” scenarios. Even if your company doesn’t currently use AI platforms, it’s critical to educate employees and have a policy that outlines the safe, private, and secure use of AI.
Isso vale mesmo quando não há planos organizacionais para usar IA, e mais ainda quando há a intenção de implementar essa tecnologia no ambiente de trabalho. Um conjunto de diretrizes garante que a organização siga em uma direção unificada, sem grandes erros. Ignorar a situação acarreta riscos demais.

Três riscos principais de não ter uma política corporativa de IA
1. A IA pode ser tendenciosa ou apresentar erros
A palavra “inteligência” é um termo equivocado. A IA é apenas dados e algoritmos, não inteligência. Ela não sabe distinguir o certo do errado.
Generative AI like ChatGPT or Bard is trained on broad, publicly available sources like the internet. It then generates the most probable response to user questions or “prompts.” It is not a fact-finder; it’s making its best guess. That means AI can and does offer false, partially incorrect, or correct information. It’s up to users to verify the output. Additionally, it can regurgitate offensive stereotypes. Safe, ethical AI means checking content for inaccuracy, bias, and harm.
Mesmo soluções de IA corporativas e privadas podem cometer erros. Um conjunto ruim de dados ou um erro de programação pode gerar problemas enormes. Uma política de IA incluirá mecanismos de controle para detectar problemas e minimizar danos.
2. Violação de segurança ou de dados
Os colaboradores podem não compreender os riscos relacionados ao uso de dados em ferramentas de IA. Por exemplo, inserir informações privadas de clientes em ferramentas públicas faz com que esses dados se tornem públicos. Regras claras ajudam a proteger a privacidade dos dados e garantem que informações sensíveis ou privadas não se tornem resultados gerados por IA. Proteja-se contra vazamentos e riscos com uma política clara sobre quais ferramentas estão disponíveis e quais usos são aceitáveis no ambiente de trabalho. Essa clareza pode evitar constrangimentos para a empresa, proteger a integridade e a privacidade dos dados e reduzir o risco de ações legais.
3. Conformidade e risco jurídico
A IA evoluiu tão rapidamente que lembra a famosa citação de Ray Bradbury: “... salte de um penhasco e construa suas asas durante a queda.” Questões relacionadas à regulamentação e às implicações legais continuam atrasadas em relação ao desenvolvimento e à adoção da tecnologia.
Por exemplo, a propriedade intelectual (PI) se torna nebulosa quando há envolvimento de IA, gerando riscos de violação de direitos autorais ou de titularidade da PI. Um conjunto de dados com falhas pode levar a resultados insatisfatórios que expõem a organização a problemas jurídicos. Cumprir as leis e regulamentações aplicáveis sobre dados e privacidade à medida que surgem, como as recentemente aprovadas na União Europeia, é muito mais fácil com uma política clara de IA.
Esses são apenas alguns dos principais riscos em jogo que uma política corporativa de IA pode começar a mitigar.
Sua primeira ferramenta de IA deve ser uma política de IA
Elaborar uma política de IA completa levará algum tempo, e não há momento melhor para começar do que agora. Aqui estão quatro etapas para começar a elaborar sua política corporativa de IA.
1. Esclareça o propósito e os objetivos
Primeiro, reúna os stakeholders para definir o propósito e os objetivos da política. Você quer sistemas seguros e eficazes. Como alcançar esse objetivo? Conforme mencionado acima, o objetivo principal de uma política de IA é garantir comportamentos consistentes e aprovados entre todos os parceiros impactados pela política. Reflita, de forma geral, por que você precisa de uma política. Por exemplo, a política ajudará todos os envolvidos a entenderem quais ferramentas são aprovadas e quais casos de uso são permitidos. Avalie a linguagem que será usada para definir as expectativas em relação a práticas éticas e responsáveis.
2. Explique o escopo e a comunicação
Em seguida, considere o escopo da política de IA:
- Quem está coberto pela política? Considere colaboradores, fornecedores, prestadores de serviços, trabalhadores temporários e consultores.
- Como um modelo de trabalho remoto, híbrido ou presencial afetará a política de IA?
- É necessário considerar o impacto das regulamentações locais? E quanto às leis internacionais? Por exemplo, o local onde os clientes ou colaboradores vivem e trabalham pode impactar a política.
- Que tipos de ferramentas de IA a empresa poderá precisar, quais são os casos de uso e quais equipes serão impactadas por essas ferramentas?
Por fim, considerando os fatores acima, como a política será comunicada e atualizada? Essas perguntas são essenciais para estabelecer diretrizes abrangentes.
3. Crie diretrizes específicas para o uso de IA
As diretrizes são específicas para cada organização. Pode ser importante abordar temas como privacidade de dados, mitigação de vieses e questões de equidade, transparência e práticas de garantia de qualidade. Quando aplicável, detalhe o uso específico da IA por departamento.
Trate da gestão e da governança
A etapa final é definir quem gerencia a política, processa e comunica alterações, e aplica sanções em casos de uso indevido. Detalhe claramente essas responsabilidades na política final.
Crie e estabeleça uma política de IA agora para garantir sucesso no futuro
Mesmo que você não tenha certeza se os colaboradores já usam IA agora ou se irão usar no futuro, uma política de IA prepara a organização para o sucesso. Uma política torna claros os objetivos, as expectativas e os comportamentos para a empresa e para todas as partes envolvidas. Abrir mão de uma política amplia os riscos potenciais de imprecisões, violações de segurança e ações judiciais.
Para saber mais sobre as perguntas que você deve fazer ao redigir uma política de IA, confira nosso e-book "Como Criar uma Política de IA."