ouça este conteúdo
Órgão do Ministério da Justiça ampliou prazo para envio de documentos e só revisará decisão após análise técnica. Multa de R$ 50 mil se ordem fosse descumprida.
A Meta sofreu uma decisão da Autoridade Nacional de Proteção de Dados (ANPD) que a obriga a suspender o uso de dados de brasileiros para treinar inteligência artificial (IA). O despacho que reafirma essa meta foi divulgado nesta quarta-feira (10).
Essa determinação da ANPD impacta diretamente as operações da empresa, que terá que rever suas práticas em relação ao uso de dados de usuários brasileiros. A Meta terá que se adequar às normas estabelecidas para garantir a conformidade com as leis de proteção de dados.
ANPD impõe multa à Meta por descumprimento de ordem
No começo de julho, a Agência Nacional de Proteção de Dados (ANPD), vinculada ao Ministério da Justiça, determinou uma penalidade financeira de R$ 50 mil à empresa Meta caso não cumprisse uma ordem estabelecida. A Meta, responsável por plataformas de redes sociais como Facebook, Instagram e WhatsApp, viu-se diante de uma situação delicada após a diretora da ANPD, Miriam Wimmer, apontar indícios de violação de direitos na coleta de dados dos usuários dessas redes. A agência tomou essa decisão após a Meta implementar novos termos de uso que autorizavam a utilização de informações de publicações abertas dos usuários, como fotos e textos, para o treinamento de sistemas de inteligência artificial generativa.
A diretora da ANPD enfatizou a importância da medida efetiva adotada, classificando-a como uma ação preventiva cautelar diante dos indícios de violação de direitos que poderiam acarretar danos de difícil reparação. No despacho divulgado recentemente, a ANPD concedeu um prazo adicional para que a Meta apresentasse documentação assinada por um representante legal, garantindo a suspensão do uso dos dados em questão. Além disso, o órgão determinou que a revisão completa da decisão só ocorrerá após uma análise técnica das medidas propostas pela Meta e da apresentação de um plano de conformidade pela empresa.
Após a publicação da decisão em julho, a Meta afirmou que sua abordagem em relação à inteligência artificial está alinhada com a legislação brasileira. No entanto, a polêmica em torno do uso de dados para treinamento de IA levantou questionamentos sobre a privacidade e a transparência nas ações da empresa. O caso ganhou destaque em 4 de junho, quando a Meta anunciou na União Europeia e no Reino Unido a possibilidade de empregar dados de usuários para aprimorar sua inteligência artificial.
Essa mudança na política de privacidade gerou controvérsias, especialmente devido à falta de informações detalhadas sobre o uso dos dados e à ausência de contrapartidas para os usuários. Após críticas, a Meta decidiu adiar a implementação da nova política na Europa, mas não tomou a mesma decisão no Brasil. Diante da pressão, o Instituto de Defesa do Consumidor acionou o governo contra a nova política de privacidade da Meta.
A empresa defendeu seu posicionamento, alegando que o uso de informações para treinar inteligência artificial é de interesse legítimo, tanto da empresa quanto dos usuários. Comprometida em desenvolver sua IA de maneira segura e responsável, a Meta destacou a importância do treinamento de modelos de inteligência artificial para aprimorar suas funcionalidades. Em comunicado ao g1 em 23 de junho, a companhia reiterou seu compromisso em seguir as regulamentações de privacidade no Brasil e garantir a proteção dos dados dos usuários em suas práticas de IA.
Fonte: © G1 – Tecnologia
Comentários sobre este artigo