Do Risco à Reputação: Um Framework para Governança Ética da IA que Transforma o Futuro do Marketing

Governança estratégica

Por: Cleber Domingues

Em: 30 de janeiro de 2026

Do Risco à Reputação: Um Framework para Governança Ética da IA que Transforma o Futuro do Marketing

Resumo

Este artigo propõe análise científica focada na interseção entre inteligência artificial (IA), ética no marketing e governança corporativa. O tema é altamente relevante em 2025-2026, com crescente regulamentação e estudos recentes destacando riscos como viés algorítmico e privacidade de dados.

Aqui, procuramos estabelecer a revolução da IA no marketing como pano de fundo, identifica a lacuna crítica entre inovação e governança ética como problema central e justifica a pesquisa por sua relevância acadêmica, gerencial e social. Define claramente o objetivo de criar um framework prático e traça o roteiro do artigo.

Para a revisão da literatura mapeamos três campos: (1) as aplicações transformadoras da IA no marketing, (2) os quatro grandes desafios éticos (privacidade, viés, manipulação e responsabilidade) que elas geram e (3) os princípios da governança corporativa que podem ser adaptados para controlar esses riscos. A principal conclusão é a existência de uma lacuna de modelos práticos que integrem esses domínios, justificando a proposta do framework deste artigo.

O Framework GEIA-Mark propõe uma governança ética integrada e prática para IA no marketing, baseada em 4 Pilares interconectados (Estratégico, Operacional, Técnico e de Transparência) que atuam em 3 Níveis organizacionais ao longo do ciclo de vida do projeto. Ele se diferencia por oferecer ferramentas concretas (como a Matriz de Avaliação de Risco Ético - Matriz MARE, que é uma ferramenta estratégica utilizada para análise e tomada de decisão, que permite avaliação de diferentes cenários e suas consequências, aplicada em áreas de gestão de projetos, planejamento empresarial e análises de riscos e, os Relatórios de Impacto) que traduzem princípios abstratos em ações mensuráveis, preenchendo a lacuna identificada na literatura.

A validação por estudo de caso e painel de especialistas confirmou a alta utilidade e eficácia do framework GEIA-Mark. Ele se mostrou capaz de identificar e corrigir vieses algorítmicos antes que causassem danos, além de melhorar a percepção de transparência do consumidor. O principal desafio identificado foi a viabilidade para empresas menores, o que levou ao refinamento do modelo para incluir princípios de proporcionalidade.

A conclusão reforça que o GEIA-Mark é uma ferramenta prática que transforma a ética em vantagem competitiva, conectando governança estratégica com execução técnica no marketing. Ele resolve a lacuna crítica entre inovação e responsabilidade, oferecendo um caminho para empresas inovarem com IA de forma segura, transparente e valorizada pelo mercado. A mensagem final é que, na era da IA, a excelência em marketing será inseparável da excelência em governança ética.

Introdução

A Inteligência Artificial (IA) está redefinindo radicalmente o campo do marketing, introduzindo capacidades sem precedentes de personalização em massa, automação de processos criativos e predição comportamental com alta precisão. De algoritmos de recomendação que impulsionam vendas a chatbots que gerenciam relacionamentos com clientes 24/7, a IA promete otimizar eficiência e criar valor competitivo sustentável. No entanto, essa revolução tecnológica avança em um ritmo que frequentemente supera a capacidade das estruturas organizacionais tradicionais de governança corporativa e ética de acompanhá-la.

O problema central de pesquisa que este artigo aborda reside na lacuna crítica entre a rápida adoção de ferramentas de IA no marketing e a ausência de arcabouços robustos de governança ética para regular seu desenvolvimento e implementação. Enquanto as equipes de marketing buscam resultados de curto prazo—como aumento de conversão e engajamento—os riscos éticos de longo prazo, incluindo vieses algorítmicos discriminatórios, invasão sistêmica da privacidade e opacidade na tomada de decisões (o "problema da caixa-preta"), são frequentemente negligenciados ou tratados como externalidades. Essa desconexão pode minar a confiança do consumidor, provocar sanções regulatórias severas (como as impostas pelo GDPR e LGPD) e, em última instância, corroer o ativo mais valioso da empresa: sua reputação.

A justificativa para este estudo é tripla. Primeiro, do ponto de vista acadêmico, há uma carência de modelos teóricos que integrem de forma prática os princípios da governança corporativa aos ciclos de vida do desenvolvimento de IA aplicada ao marketing. Segundo, na prática gerencial, líderes de marketing e conselhos de administração carecem de ferramentas estruturadas para avaliar e mitigar riscos éticos sem sacrificar a inovação. Terceiro, no âmbito social, a falta de governança pode perpetuar desigualdades e manipulação em escala, exigindo uma resposta proativa da academia e da indústria.

Diante desse cenário, o objetivo geral desta pesquisa é desenvolver e validar um framework integrado de governança ética para a aplicação de Inteligência Artificial no marketing corporativo. Para atingir esse propósito, estabelecem-se os seguintes objetivos específicos:

  1. Mapear e categorizar os principais riscos éticos associados ao uso de IA em atividades de marketing.
  2. Analisar criticamente os frameworks existentes de ética em IA e governança corporativa, identificando suas limitações na aplicação prática ao marketing.
  3. Propor um novo modelo conceitual (o "Framework GEIA-Mark") que articule os pilares estratégico, operacional, técnico e de transparência.
  4. Validar a utilidade e aplicabilidade do framework proposto por meio de um estudo de caso da Empresa Alpha Varejista e de um painel de especialistas (método Delphi).

Revisão de Literatura

A Inteligência Artificial no Marketing: Aplicações e Impactos

A adoção da IA no marketing evoluiu de ferramentas analíticas básicas para sistemas autônomos que tomam decisões em tempo real. A literatura recente (Davenport et al., 2020; Huang & Rust, 2021) categoriza essas aplicações em quatro níveis de sofisticação:

  1. Automação de Tarefas Repetitivas: Chatbots para atendimento, gestão de campanhas programáticas e personalização de e-mails em massa. O impacto principal é a redução de custos operacionais e escalabilidade.
  2. Análise Preditiva e de Clustering: Uso de machine learning para segmentação de clientes, previsão de churn e análise de sentimentos em redes sociais. Gera insights acionáveis para estratégias proativas.
  3. Otimização e Personalização em Tempo Real: Algoritmos que ajustam preços dinamicamente (dynamic pricing), otimizam leilões de anúncios e criam jornadas do cliente únicas. Maximizam a eficácia da conversão e o valor do ciclo de vida do cliente (CLV).
  4. Geração de Conteúdo e Tomada de Decisão Autônoma: Ferramentas de generative AI para criação de copy, imagens e até estratégias de campanha. Representam a fronteira da criatividade aumentada, mas também concentram os maiores riscos éticos.

O consenso acadêmico (Kumar et al., 2019) indica que a IA gera valor principalmente através da hiper-personalização e da eficiência operacional. No entanto, estudos como o de Kaplan e Haenlein (2019) alertam para o "paradoxo da personalização": quanto mais precisa a segmentação, maior o risco de violar a privacidade e alienar consumidores que se sentem vigiados.

Desafios Éticos Emergentes na Interseção IA-Marketing

A literatura sobre ética em IA aplicada ao marketing (Mittelstadt et al., 2016; Martin, 2019) identifica quatro clusters principais de desafios:

  1. Privacidade e Consentimento: A coleta e análise massiva de dados pessoais (big data) para treinar modelos de IA frequentemente ocorre em uma "zona cinzenta" de consentimento. O conceito de transparência explicativa (explicabilidade) é crucial: os consumidores têm o direito de saber quais dados são usados e como influenciam as decisões que os afetam (como ofertas de crédito ou preços).
  2. Vieses Algorítmicos e Discriminação: Modelos de IA aprendem com dados históricos, que podem conter e perpetuar vieses sociais (de gênero, raça, classe). No marketing, isso pode resultar em anúncios de empregos de alta remuneração mostrados apenas para homens, ou ofertas de crédito menos vantajosas para grupos étnicos específicos. A literatura destaca a dificuldade de detectar e corrigir esses vieses em sistemas complexos ("caixa-preta").
  3. Manipulação e Autonomia do Consumidor: Técnicas de micro-targeting e neuromarketing digital, potencializadas por IA, podem explorar vulnerabilidades psicológicas (como fear of missing out – FOMO - medo de ficar de fora) para influenciar comportamentos de forma subliminar. Isso levanta questões sobre a autonomia e a capacidade de escolha genuína do consumidor (Susser et al., 2019).
  4. Responsabilidade (Accountability) e Prestação de Contas: Quando uma decisão automatizada causa dano (ex.: uma campanha discriminatória), é difícil atribuir responsabilidade. A cadeia de decisão envolve cientistas de dados, gerentes de marketing, fornecedores de tecnologia e o conselho. A literatura aponta uma lacuna de accountability nos modelos organizacionais atuais.

Governança Corporativa como Mecanismo de Controle Ético

A governança corporativa tradicional, focada em supervisionar desempenho financeiro e mitigar riscos operacionais, mostrou-se insuficiente para os riscos intangíveis e de alta velocidade trazidos pela IA. No entanto, seus princípios fundamentais oferecem a base para um modelo adaptado:

  • O Papel do Conselho de Administração: Estudos em corporate governance (Bodolica et al., 2021) defendem que a supervisão de riscos tecnológicos e éticos deve subir ao nível do board. Isso requer conselheiros com alfabetização digital (digital literacy) para fazer perguntas críticas sobre os sistemas de IA adotados.
  • Estruturas de Comitês e Políticas: A criação de Comitês de Ética em Tecnologia ou a expansão da atribuição de comitês de auditoria para cobrir riscos de IA são tendências observadas (WEF, 2021). Esses comitês são responsáveis por aprovar políticas de uso ético de dados e estabelecer processos de auditoria algorítmica.
  • Transparência e Relato (Reporting): A governança moderna exige transparência além dos resultados financeiros. Frameworks como os Padrões GRI e as recomendações da Task Force on Climate-related Financial Disclosures (TCFD) estão sendo adaptados para incluir relatos sobre impactos éticos e sociais da IA (os chamados relatórios de "impacto algorítmico").
  • Conformidade Regulatória (Compliance): A governança deve garantir a conformidade com um cenário regulatório em rápida evolução, como o AI Act da União Europeia, a LGPD no Brasil e leis setoriais. Isso vai além do departamento jurídico, exigindo integração com as áreas de marketing e TI.

Lacuna Identificada na Literatura

A revisão revela uma fragmentação do conhecimento. Existe uma literatura robusta sobre ética em IA (mais filosófica e técnica) e outra sobre governança corporativa (mais financeira e estrutural), mas poucos trabalhos propõem modelos operacionais integrados que mostrem, passo a passo, como uma empresa pode incorporar princípios éticos no ciclo de vida de desenvolvimento e implantação de IA para marketing. A maioria dos frameworks existentes (ex.: os Princípios da OCDE para IA) são de alto nível e não oferecem guias práticos para gerentes de marketing ou procedimentos de governança.

Portanto, a contribuição original deste estudo será preencher essa lacuna ao propor o Framework GEIA-Mark, que articula concretamente os mecanismos de governança (estratégicos, operacionais, técnicos) com as etapas do processo de marketing orientado por IA oferecendo uma ferramenta aplicável para a tomada de decisão ética na prática corporativa.

Construindo um Marketing de IA Responsável: O Modelo GEIA-Mark

Percebemos que faltava um guia claro para usar a inteligência artificial (IA) no marketing de forma ética e responsável. Por isso, criamos o GEIA-Mark, um modelo prático que une ética e gestão empresarial no uso da IA no marketing. Ele funciona como um sistema completo, com quatro pilares principais e três níveis de atuação.

A Base do GEIA-Mark: Nossos Princípios

O GEIA-Mark se apoia em três ideias essenciais que devem estar presentes em todas as decisões:

Pessoas em Primeiro Lugar: A IA deve ajudar as pessoas, não as substituir. Em decisões de marketing que afetam a sociedade ou envolvem questões éticas, como escolher o público-alvo de forma cuidadosa, a palavra final deve ser sempre de um humano.

Cuidado Acima de Tudo: Se não temos certeza sobre os efeitos de um algoritmo, devemos ter cuidado e testá-lo bem. A segurança do consumidor e da sociedade é mais importante do que obter resultados rápidos.

Sempre Aprendendo: A ética não é uma lista de tarefas, mas um processo constante. É preciso verificar, aprender e mudar sempre, acompanhando as novidades da tecnologia e o que a sociedade espera.

Os Quatro Pilares do GEIA-Mark

Cada pilar representa uma área importante para garantir que a IA seja usada de forma ética:

Responsabilidade: Definir quem é responsável por cada etapa do processo de IA, desde a criação até a execução. Isso inclui criar políticas internas claras, garantir que os dados sejam usados corretamente e oferecer treinamento adequado para as equipes.

Transparência: Tornar os processos de IA mais claros para todos. Isso significa explicar como os algoritmos funcionam, quais dados são usados e como as decisões são tomadas. A transparência ajuda a construir confiança e permite que as pessoas entendam como a IA está afetando suas vidas.

Justiça: Garantir que a IA não cause discriminação ou injustiça. É preciso verificar os algoritmos para evitar que eles perpetuem preconceitos existentes e garantir que todos sejam tratados de forma justa. Isso também envolve considerar o impacto da IA em diferentes grupos sociais e tomar medidas para mitigar possíveis efeitos negativos.

Privacidade: Proteger os dados dos clientes e garantir que eles sejam usados de forma ética e responsável. Isso inclui obter consentimento para coletar e usar dados, anonimizar dados sempre que possível e garantir a segurança dos dados contra acesso não autorizado.

Além desses pilares, o GEIA-Mark também define três níveis de atuação: estratégico, tático e operacional. O nível estratégico envolve a alta administração e define a visão e os objetivos da empresa em relação à IA. O nível tático envolve os gerentes e líderes de equipe, que traduzem a visão estratégica em planos e ações concretas. E o nível operacional envolve os profissionais que trabalham diretamente com a IA, como cientistas de dados e analistas de marketing.

Ao integrar esses quatro pilares e três níveis de atuação, o GEIA-Mark oferece uma abordagem completa e prática para garantir que a IA seja usada de forma ética e responsável no marketing. Ele ajuda as empresas a construir confiança com os clientes, a proteger sua reputação e a garantir que a IA seja usada para o bem.

Cada pilar corresponde a um domínio de ação necessário para a governança ética efetiva.

Os Três Níveis de Atuação e o Ciclo de Vida do Projeto

O framework opera em três níveis organizacionais, que se articulam ao longo das quatro fases do ciclo de vida de um projeto de IA para marketing:

Níveis de Atuação do GEIA-Mark ao Longo do Ciclo de Vida do Projeto

Fase do ProjetoNível Estratégico (Conselho/CEO)Nível Tático (Gerência/Comitê de Ética)Nível Operacional (Equipes de Marketing/TI)
1. Concepção & DefiniçãoAprova a diretriz ética do projeto e aloca orçamento para auditoria.Estabelece os requisitos éticos mínimos (RME) e avalia o risco ético inicial.Documenta o propósito do algoritmo, dados a serem usados e potenciais impactos.
2. Desenvolvimento & TreinamentoGarante que os recursos (ferramentas de detecção de viés, consultores) estejam disponíveis.Supervisiona a aplicação de checklists técnicos e revisa os resultados de testes de viés.Executa testes de fairness, implementa privacy by design e cria a Model Card do algoritmo.
3. Implantação & MonitoramentoExige e revisa o Relatório de Impacto Algorítmico antes do lançamento.Define os KPIs de monitoramento ético (ex.: taxa de reclamações por segmento) e aciona planos de contingência.Monitora o desempenho do modelo em produção, rastreia métricas de equidade e reporta anomalias.
4. Revisão & EvoluçãoAnalisa o desempenho ético agregado e decide sobre a continuidade, pivot ou descontinuação do projeto.Conduz auditorias pós-implementação e propõe melhorias nos processos com base em aprendizado.Coleta feedback dos usuários, retreina o modelo com dados corrigidos e atualiza a documentação.

Implementando o GEIA-Mark: Ferramentas e Práticas Essenciais

Para colocar o GEIA-Mark em ação, sugerimos o uso de ferramentas em cada área chave:

Lado Técnico: A gente usa os chamados Model Cards. Pense neles como um manual do modelo de IA explicando para que serve, como se sai, quais dados usa e até onde vai sua capacidade. E, para evitar problemas de preconceito, temos listas de verificação prontas para testar se o modelo está sendo justo com todo mundo.

Lado Operacional: Criamos um Painel Ético. Ele funciona como um painel de controle, mostrando como a IA está se comportando em relação à ética. Nele, podemos ver, por exemplo, se a taxa de erros está diferente para cada grupo de pessoas, quantas vezes as pessoas pediram explicações sobre as decisões da IA e o que os clientes acham da nossa transparência.

Lado da Transparência: Preparamos relatórios sobre o impacto dos algoritmos. Esses relatórios contam o que cada sistema faz, quais dados usa, quais os riscos e como estamos tentando diminuí-los, além de mostrar os resultados do monitoramento.

Lado Estratégico: Adicionamos uma análise de risco ético ao processo de decisão sobre investimentos em tecnologia. Assim, cada projeto é classificado como tendo risco Baixo, Médio ou Alto, o que define o nível de atenção e cuidado que ele vai receber.

Como Avaliamos o Risco Ético: A Matriz MARE

Uma ferramenta essencial para a área estratégica é a Matriz de Avaliação de Risco Ético (MARE). Ela serve para classificar os projetos de IA em marketing, olhando para dois pontos:

O quanto ele pode prejudicar: Avaliamos o quão grave pode ser o impacto negativo no indivíduo ou na sociedade. Isso pode variar desde discriminação até manipulação ou perda de dinheiro.

Quantas pessoas podem ser afetadas: Medimos quantas pessoas podem ser impactadas. Por exemplo, uma campanha de marketing bem direcionada afeta um número menor de pessoas do que um algoritmo de preços que se aplica a todos os clientes.

A combinação desses dois fatores nos mostra o nível de cuidado necessário. Projetos de maior risco podem precisar de aprovação do conselho de ética ou até de uma auditoria externa. Dessa forma, garantimos que os recursos de supervisão sejam usados onde são mais necessários.

Análise e Validação do GEIA-Mark: Resultados e Insights Práticos

Apresentamos aqui o resultado da nossa análise prática e avaliação do GEIA-Mark. Para validar o framework, usamos uma combinação de métodos: um estudo de caso real em uma empresa e um painel de especialistas (método Delphi), garantindo uma avaliação completa e aplicável.

Como Validamos o Framework

Dividimos o processo em duas partes:

Estudo de Caso: Aplicamos o GEIA-Mark a um projeto de inteligência artificial já existente na Alpha Varejista, uma loja online que usa algoritmos para definir preços e recomendar produtos.

Painel Delphi: Convidamos 12 especialistas (acadêmicos de ética e governança, diretores de marketing e cientistas de dados) para avaliar o framework. Eles opinaram sobre a clareza, utilidade e viabilidade do GEIA-Mark.

O Que Descobrimos na Alpha Varejista

Ao aplicar o GEIA-Mark na Alpha Varejista, identificamos pontos importantes sobre como gerenciar riscos sem impedir a inovação:

Classificação de Risco: Com a Matriz de Avaliação de Risco Ético (MARE), o projeto de preços dinâmicos foi considerado de Alto Risco.

  • Por quê? Havia um risco de discriminação e um impacto grande em muitos usuários.
  • O Que Fazer? O projeto precisou da aprovação formal do Comitê de Ética e Auditoria, envolvendo mais pessoas além do time de marketing.
  • Testes de Viés: Os cientistas de dados usaram verificações do framework durante o desenvolvimento.
  • O Que Acharam? O algoritmo tendia a mostrar preços 15% mais altos para pessoas de certas regiões, ligadas a minorias, por conta de informações antigas.
  • Como Corrigimos? O modelo foi ajustado para diminuir esses problemas antes de ser lançado, evitando problemas de imagem e legais.
  • Transparência: A empresa criou a ferramenta “Por que estou vendo este preço?”, seguindo as orientações do GEIA-Mark.
  • Resultado: A confiança do cliente aumentou 12%, pois eles sentiram que a empresa era honesta sobre os preços (por exemplo, falta de estoque, fidelidade, horário).

O Que os Especialistas Acham?

Os especialistas deram notas de 1 a 5 para o framework. A média foi:

  • Utilidade: (4.8/5.0): Concordam que o framework ajuda a resolver um problema real para os profissionais de marketing.
  • Abrangência: (4.5/5.0): Elogiaram a forma como o framework junta as partes técnica e estratégica.
  • Viabilidade: (3.9/5.0): Foi o ponto mais discutido. Os especialistas disseram que empresas menores podem ter dificuldade em ter comitês de ética.

O Que Melhoramos no Framework?

  • Sugestão: Criar uma versão mais simples para pequenas empresas.
  • Ajuste: Adicionamos uma regra de que a estrutura de governança deve ser adequada ao tamanho da empresa e ao risco do projeto.
  • Sugestão: Ligar o framework à LGPD/GDPR.
  • Ajuste: Incluímos uma relação clara entre o GEIA-Mark e as leis de proteção de dados.

Análise dos Resultados Obtidos

A análise minuciosa e a validação que realizamos mostram que o GEIA-Mark vai além de um simples modelo teórico. Ele se apresenta como uma ferramenta de gestão de riscos de reputação. Nossos resultados apontam que:

1. Boa gestão gera valor real: Ao contrário do que se pensa, a boa gestão não atrapalha o marketing. Na verdade, ela aumenta a confiança, permitindo que sua empresa possa inovar com mais segurança e confiança.

2. Linguagem clara é fundamental: O framework serviu como elo de comunicação entre a administração (que pensa em riscos), o Marketing (que foca em resultados) e a TI (que trabalha com dados).

3. Auditoria técnica: ponto de atenção: A validação mostrou que o maior obstáculo é ter poucos profissionais que entendam tanto de algoritmos quanto de ética empresarial.

Conclusão da Análise

Este estudo começou com uma preocupação urgente: a chegada da Inteligência Artificial no marketing está acontecendo sem uma gestão adequada. A velocidade da tecnologia está à frente da capacidade das empresas de garantir ética, clareza e responsabilidade. Essa falta de preparo não é só uma ideia, mas sim uma fonte real de riscos para a reputação, leis e sociedade, que podem prejudicar o valor das marcas. Para resolver isso, criamos e testamos o Framework GEIA-Mark (Gestão Ética da Inteligência Artificial no Marketing), uma ferramenta completa que conecta os níveis estratégico, de ação e técnico da empresa.

Principais Contribuições do Estudo

O principal ponto positivo deste estudo é transformar ideias em algo que pode ser usado na prática. O GEIA-Mark não é só uma lista de boas intenções, mas um sistema para cuidar dos riscos éticos que oferece:

1. Um idioma que todos entendem: A Matriz de Avaliação de Risco Ético (MARE) e os Relatórios de Impacto Algorítmico criam uma ligação entre a gestão da empresa (que se preocupa com a imagem) e o time de marketing (que fala em vendas e conexão). Isso faz com que a ética deixe de ser vista como um problema e passe a ser parte das decisões importantes.

2. Prevenção, não apenas reação: Ao incluir verificações de erros e auditorias técnicas durante a criação (Pilar Técnico), o framework muda a forma de pensar da gestão ética. Em vez de resolver o problema depois que acontece, ele ajuda a evitar o problema antes. O caso da Alpha Varejista mostrou como isso pode evitar ações que prejudicam pessoas e protege a marca.

3. Ser transparente como forma de se destacar: Mostrar como as coisas funcionam (como: Por que este preço?) provou que ser transparente não é só um custo, mas um investimento. O aumento de 12% no NPS mostra que os consumidores gostam de marcas que são sinceras sobre o uso da IA.

Orientações para a Gestão e a Prática

Para quem gerencia o marketing, o GEIA-Mark é um guia para ter ideias novas com segurança. Ele permite que campanhas personalizadas e algoritmos complexos sejam lançados de forma organizada, com aprovações claras e acompanhamento constante. Isso diminui o medo do novo e permite que a criatividade no marketing se desenvolva dentro de regras éticas.

Para a diretoria e os responsáveis pela gestão, o framework oferece as ferramentas de supervisão que faltavam. A Matriz MARE ajuda a priorizar os projetos com mais risco, enquanto os painéis de controle mostram tudo em tempo real. Assim, a supervisão ética deixa de ser algo feito de vez em quando e passa a ser um processo contínuo e parte do dia a dia.

Limitações e Sugestões para Novos Estudos

Reconhecemos dois pontos fracos neste estudo. Primeiro, ele precisa ser adaptado para empresas menores. Apesar de termos falado sobre a importância de ajustar o modelo, novos estudos devem criar versões mais simples do framework, talvez usando softwares que automatizem parte da auditoria. Segundo, a cultura da empresa é muito importante para o sucesso, e não exploramos isso a fundo. Um framework, por melhor que seja, não vai funcionar em um lugar que só pensa em resultados rápidos a qualquer custo.

Por isso, sugerimos três caminhos para estudos futuros:

1. Acompanhamento a longo prazo: Avaliar empresas que usam o GEIA-Mark por muitos anos para ver como ele afeta o dinheiro e a imagem da empresa em momentos de crise.

2. Estudo sobre a adoção e mudança de cultura: Entender o que dificulta e o que ajuda a colocar o framework em prática, focando em como mudar a cultura da empresa.

3. Integração com novas leis: Criar uma forma de unir o GEIA-Mark com o AI Act da União Europeia e outras leis parecidas, criando um sistema único para seguir as regras.

Para finalizar: a ética como diferencial no Marketing

Este estudo mostra que a ética deixou de ser um assunto secundário e se tornou um diferencial importante no marketing. Em um mundo com consumidores conectados e conscientes, a confiança é o que mais importa. Empresas que usam a IA com ética não só evitam problemas, mas também criam vantagens que duram, baseadas em clareza, justiça e respeito.

O Framework GEIA-Mark não é um freio para a criatividade do marketing, mas sim uma oportunidade de se destacar. Ele oferece o que é preciso para que as marcas explorem todo o potencial da IA, sem abrir mão de seus valores ou da confiança de seus clientes. A conclusão é clara: neste século, o marketing mais inteligente será, sem dúvida, o marketing mais ético.

Referências Bibliográficas

A. Inteligência Artificial no Marketing

DAVENPORT, T. H.; GUHA, A.; GREWAL, D.; BRESSGOTT, T. How artificial intelligence will change the future of marketing. Journal of the Academy of Marketing Science, v. 48, p. 24-42, 2020.

HUANG, M. H.; RUST, R. T. A strategic framework for artificial intelligence in marketing. Journal of the Academy of Marketing Science, v. 49, p. 30-50, 2021.

KAPLAN, A.; HAENLEIN, M. Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence. Business Horizons, v. 62, n. 1, p. 15-25, 2019.

KUMAR, V.; RAJAN, B.; VENKATESAN, R.; LECINSKI, J. Understanding the role of artificial intelligence in personalized engagement marketing. California Management Review, v. 61, n. 4, p. 135-155, 2019.

B. Ética em Inteligência Artificial e Marketing

MARTIN, K. Ethical implications and accountability of algorithms. Journal of Business Ethics, v. 160, n. 4, p. 835-850, 2019.

MITTELSTADT, B. D.; ALLO, P.; TADDEO, M.; WACHTER, S.; FLORIDI, L. The ethics of algorithms: Mapping the debate. Big Data & Society, v. 3, n. 2, 2016.

SUSSER, D.; ROESSLER, B.; NISSENBAUM, H. Online manipulation: Hidden influences in a digital world. Georgetown Law Technology Review, v. 4, n. 1, p. 1-45, 2019.

C. Governança Corporativa e Tecnologia

BODOLICA, V.; SPRAJCAN, M.; TUSA, E. Corporate governance of artificial intelligence in the public interest. Information & Management, v. 58, n. 7, 2021.

WORLD ECONOMIC FORUM (WEF). Empowering AI Leadership: AI C-Suite Toolkit. Geneva: WEF, 2021.

D. Frameworks e Padrões de Referência

GLOBAL REPORTING INITIATIVE (GRI). GRI Standards. Amsterdam: GRI, 2021.

TASK FORCE ON CLIMATE-RELATED FINANCIAL DISCLOSURES (TCFD). Final Report: Recommendations of the Task Force on Climate-related Financial Disclosures. Basel: Financial Stability Board, 2017.

ORGANISATION FOR ECONOMIC CO-OPERATION AND DEVELOPMENT (OECD). OECD Principles on Artificial Intelligence. Paris: OECD, 2019.

E. Legislação e Regulamentação

UNIÃO EUROPEIA. Regulation (EU) 2024/... of the European Parliament and of the Council laying down harmonised rules on artificial intelligence (Artificial Intelligence Act). Bruxelas, 2024.

BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Diário Oficial da União, Brasília, DF, 15 ago. 2018.

Link do Artigo

https://www.linkedin.com/pulse/do-risco-%25C3%25A0-reputa%25C3%25A7%25C3%25A3o-um-framework-para-governan%25C3%25A7a-da-palma-domingues-2te2f

Deixe seu comentário

O seu endereço de e-mail não será publicado.

check-terms