Transparência é essencial e é natural que a sociedade queira entender como funcionam os sistemas de IA que usam. Não obstante, em modelos de IA complexos como redes neurais profundas, explicar decisões individuais é desafiador devido ao uso de bilhões de parâmetros em operações matemáticas complexas. Isolar o impacto específico de cada parâmetro é praticamente impossível, tornando a explicação detalhada de cada decisão tecnicamente inexequível. Portanto, é mais eficaz focar em entender padrões gerais do funcionamento do modelo, garantir a qualidade dos dados de treinamento e implementar medidas de segurança e filtros após o treinamento para aprimorar os resultados do que exigir um direito a explicabilidade individual.
top of page
Boas-vindas à Consulta Pública sobre Inteligência Artificial no Brasil.
A primeira fase da Consulta Pública chegou ao fim, mas você ainda pode participar da conversa! Todas as contribuições enviadas até o dia 02 de dezembro de 2024 foram analisadas e serão publicadas em breve no site do ITS.
Você ainda pode compartilhar sua opinião e participar das futuras fases da Consulta. Além disso, pode continuar votando nas proposições que extraímos dessa primeira fase: Área da Saúde - Academia e Movimento Maker
bottom of page
Muito obrigado Dani. Transparência é essencial mesmo e é preciso do ponto de vista do projeto de lei realmente pensar a questão da transparência com relação a qualidade dos dados de treinamento, alinhamento, inclusão de safety e guardrails e outros pontos que você bem levantou.