Quando a ANPD barrou o uso de dados para treinamento da IA da Meta, a Meta argumentou que estava desapontada com a decisão, por que “treinamento de IA não é algo único dos nossos serviços” e a “abordagem [da empresa] cumpre com as leis de privacidade e regulações no Brasil”. Entre especialistas que acompanham o cenário de privacidade no Brasil, a discussão que se instaurou é que, por coerência, a ANPD deveria agir da mesma forma em relação a outras Big Tech.
O Google, por exemplo, mudou sua política de privacidade no ano passado para adotar prática semelhante, incluindo o YouTube.
Na sexta-feira (26), a coluna questionou a ANPD se iria fazer algo em relação ao X e como respondia às críticas. Como resposta, a autoridade informou nesta segunda-feira (29) que enviou na própria sexta um ofício pedindo esclarecimentos ao X.
No caso da Meta, a ANPD entendeu que:
- não havia base legal que permitisse o tratamento de dados pessoais para treinar AI.
- não houve divulgação suficiente pela Meta sobre a mudança das suas regras.
- usuários brasileiros até podiam, mas enfrentavam dificuldade para se opor à utilização dos seus dados pessoais (a ação envolvia enfrentar várias páginas, enviar uma solicitação por escrito, responder um email com justificativa, que poderia ou não ser aceita pela Meta)
- dados de crianças e de adolescentes estariam sendo tratados para essa finalidade, em desacordo com o disposto na LGPD.