O modelo regulatório para controle de riscos associados ao uso de IA deve ser baseado nos seguintes pilares:
I - Avaliação de Impacto e Risco: a) Realização de avaliações de impacto e risco antes da implementação de sistemas de IA; b) Identificação de potenciais danos à privacidade e aos direitos dos indivíduos; c) Planejamento de medidas preventivas e corretivas para mitigar esses riscos.
II - Medidas de Segurança: a) Implementação de medidas de segurança robustas para proteger os dados pessoais tratados por sistemas de IA, conforme a LGPD; b) Criptografia e anonimização de dados pessoais; c) Monitoramento contínuo para detectar e responder a incidentes de segurança.
III - Auditorias e Transparência: a) Sistemas de IA devem ser projetados para permitir auditorias independentes; b) Registro detalhado das decisões e processos do sistema de IA; c) Acesso a registros por órgãos reguladores e auditores independentes; d) Publicação de relatórios de auditoria para conhecimento público.
IV - Responsabilização: a) Empresas serão responsabilizadas por falhas na implementação de medidas eficazes para reduzir prompts identificadamente prejudiciais e que possam causar danos a outrem e à sociedade; b) Implementação de mecanismos para detecção e prevenção de conteúdos prejudiciais; c) Disponibilização de canais de denúncia e reparação para usuários afetados; d) Aplicação de sanções em caso de negligência ou descumprimento das medidas de proteção.
Criação da Autoridade Nacional de Supervisão de Inteligência Artificial (ANSIA):
I - Composição: a) A ANSIA será composta por representantes do governo, do setor privado, da academia e da sociedade civil.
II - Atribuições: a) Monitorar a implementação e a conformidade com esta Lei; b) Realizar auditorias e inspeções em sistemas de IA; c) Emitir diretrizes e regulamentos específicos para setores distintos; d) Promover a transparência e a explicabilidade dos sistemas de IA; e) Investigar e aplicar sanções em casos de violações.
III - Poderes: a) Solicitar informações e documentos de empresas que desenvolvem ou operam sistemas de IA; b) Aplicar penalidades administrativas, incluindo multas e suspensão de atividades; c) Coordenar com outras autoridades regulatórias para garantir uma abordagem integrada à regulação de IA.
Art.- O papel do setor privado na mitigação de riscos:
I - Desenvolvimento Responsável: a) As empresas devem adotar práticas de desenvolvimento éticas e responsáveis para garantir a segurança e a transparência dos sistemas de IA; b) Devem realizar testes rigorosos e contínuos para identificar e corrigir falhas e vulnerabilidades.
II - Colaboração com a ANSIA: a) As empresas devem colaborar com a ANSIA fornecendo acesso a informações e participando de auditorias; b) Devem implementar recomendações e diretrizes emitidas pela ANSIA.
III - Capacitação e Treinamento: a) Promover capacitação contínua para desenvolvedores e operadores de IA sobre segurança, privacidade e ética; b) Desenvolver programas internos de compliance para assegurar a conformidade com regulamentos e boas práticas.
O papel da comunidade científica e da academia:
I - Pesquisa e Inovação: a) Incentivar a pesquisa em IA ética, segura e responsável; b) Desenvolver novas técnicas e metodologias para mitigação de riscos.
II - Educação e Formação: a) Promover cursos e programas de formação focados em IA, segurança e ética; b) Contribuir com estudos e publicações que orientem políticas públicas e regulatórias.
III - Consultoria e Assessoria: a) Fornecer consultoria técnica para a ANSIA e outras autoridades regulatórias; b) Participar de comitês e grupos de trabalho para o desenvolvimento de normas e diretrizes.
Oi Edgard, boas sugestões. Para continuar o debate: como podemos pensar em formas de equilibrar o incentivo à inovação em IA pela indústria e academia nacional e, de outro lado, a mitigação e o controle de riscos?