Já faz quase um ano que a Lei Geral de Proteção de Dados (LGPD) entrou em vigor e o assunto se mantém em ebulição. É um tema que continuará sendo o cerne de discussões entre o Legislativo e o Privado, já que uma nova onda (ainda maior) se sucede desse movimento global: a governança de IA.
Hoje, com uma legislação vigente e uma autoridade nacional atuante, a governança de dados ganhou solidez sendo, inclusive, um dos pilares principais de qualquer empresa. Mas como fica esse cenário quando falamos de regulação de inteligência artificial? O processo seria o mesmo? As mesmas diretrizes teriam valia? Quais as divergências e similaridades entre os dois assuntos? Em que pontos eles se cruzam e em que outros são singulares?
São perguntas e respostas para horas e horas de conversa, mas na reunião do Comitê de Proteção de Dados da ABO2O, com apoio da Microsoft, Grupo iX e da revista INOVATIVOS, trouxemos especialistas super renomados para dar um overview da situação no País.
IA não é tudo farinha do mesmo saco
Categorizar dados e definir como eles podem ser usados é uma coisa. Classificar tipos de inteligência artificial e ter um processo definido, de como eles devem se comportar, é OUTRA.
Dr. Eduardo Magrani, conselheiro de IA em Harvard, consultor da CCA Law Firme e sócio-advogado no Demarest, explica melhor:
“Não dá pra gente comparar um robô aspirador, que tem IA, com um robô médico-cirurgião que vai fazer uma operação complexa ou com um carro autônomo. Então, a gente sempre tem que partir de um consenso sobre o que estamos falando, quando discutimos sobre inteligência artificial. É preciso entender que o risco varia de acordo com a tecnologia e é por isso que não dá pra colocar tudo no mesmo saco.”
Segundo ele, quando falamos em regulação de IA ainda é tudo muito vago. Isso porque as tecnologias que se utilizam de inteligência artificial (que vêm crescendo ano a ano) são muito distintas e o risco varia de acordo com o tipo.
A questão é que há, claramente, um problema conceitual: não existe uma boa definição de IA e isso gera múltiplas consequências, principalmente, no que se refere à responsabilidade das organizações.
Regulação de Proteção de Dados e de IA: um jogo dos 7 erros
Mesmo com pouco tempo de implantação da LGPD, o debate já tem, pelo menos, 10 anos no Brasil. Na Europa, já tem mais de décadas! E, nos últimos meses, a diligência à aplicação da nova Lei foi tanta, que só há pouco começamos a respirar novos ares. Em paralelo a isso, já vinha acontecendo o processo de regulação de IA.
Dr. Gustavo Artese, sócio da Artese Advogados, que participou ativamente da criação da LGPD, diz que ela nasceu de especialistas. E a Lei de IA parece estar seguindo o mesmo caminho:
“Se você pensar que IA é um carro e dados são a gasolina, 99% das grandes organizações do Brasil estão rodando com gasolina adulterada.”
Ou seja, por mais que os esforços tenham sido grandes para concretizar essa regulação, ainda há parafusos soltos.
O processo já se mostra bem adiantado. Na visão de muitos, até demais. Afinal, um tema complexo, polêmico e robusto como esse não merece mais discussão? Mais pesquisa? Mais áreas envolvidas? Mais tempo de estruturação?
O fato é que a regulação de IA está sendo criada com base na regulação de LGPD que, apesar de já bem estruturada, ainda apresenta gaps. Sobretudo no que diz respeito à riscos. Portanto, não é preciso de muito para enxergar mais do que sete erros aí.
Status atual da regulação brasileira de IA: em andamento…
Independentemente das controvérsias, a estratégia brasileira de IA está caminhando e, na visão de Loren Spíndola, líder de Políticas Públicas da Microsoft Brasil e do Grupo de Trabalho de IA da ABES (Associação Brasileira das Empresas Software), indo pelo caminho certo:
“Somos, sim, a favor de regulação. Um ambiente controlado gera mais segurança tanto para nós, prestadores de serviços, quanto para os consumidores e para a sociedade.”
Ela concorda que o processo se deu de forma muito apressada, em comparação com a criação da Lei de Proteção de Dados. Mas isso veio em consequência de uma toada de privacidade. De repente, todas as pessoas começaram a se preocupar com seus dados pessoais e com o uso deles, o que forçou uma aceleração de diretrizes para o uso das IAs.
No momento, a união do Executivo, das associações e do setor privado estão direcionando os temas e traçando um plano de quatro anos para colocar em prática. E o resultado disso vai impactar na geração de empregos e negócios do Brasil, na atração de investimentos, na área de P&D, na capacidade de retenção de bons profissionais e uma série de outras coisas.
O diretor-geral da ABO2O, Marcos Carvalho, retrata o contexto ideal:
“Não é função do Governo inovar, mas de permitir que haja um cenário mais maduro com menos fricções e obstáculos e permitir que a iniciativa privada se desenvolva com agilidade, investimento e tecnologia.”
O papel das organizações no meio disso tudo
Com legislação aprovada ou não, é consenso geral dizer que prestar um bom serviço e garantir que os dados do cliente estejam protegidos é reputacional. Mesmo que ainda não existam normas bem definidas sobre o uso de IA, as empresas se comprometem com a segurança de dados de seus clientes (e o uso deles) para manterem suas próprias imagens. Caso contrário, o cliente não volta.
Dentro de casa, as companhias também sofrerão adaptações, já que todo esse movimento sugere uma necessidade de hibridismo dos profissionais. Então, se o DPO (Data Protection Officer) já é uma mistura de consultor, controlador, gestor e RP de proteção de dados, imagina a partir de agora. E, na opinião dos especialistas participantes, essa miscigenação de conhecimento e experiência não deve ficar só dentro das empresas, mas deve ser parte da criação da regulação de IA. Até porque, se os legisladores não entenderem a diferença entre IA, algoritmo, deep learning, aprendizado de máquina e aprendizado por reforço, não tem como essa lei ser viabilizada. Esse precisa ser o ponto de partida para que a regulação funcione.
A onda que vem de mares internacionais
Enquanto, aqui no Brasil, a Câmara de Deputados vem correndo para estruturar e formalizar uma legislação para o uso de IA, na Europa, esse processo está sendo bem mais extenso e debatido.
Nos Estados Unidos, por exemplo, não há regulação de inteligência artificial, para que não haja um embarreiramento da inovação. O que existe são princípios para que as empresas sigam diretrizes básicas e ajam com responsabilidade.
Dito isso, qual seria a melhor alternativa para o Brasil? Adiar o processo? Sair do conceito de regulação para diretrizes de boas práticas? Espelhar-se no consenso internacional, sobre o tema, para melhores medidas?
Ouça o conteúdo na íntegra e acompanhe o fechamento desse debate.
Ou assista o vídeo completo: