Transparência é essencial e é natural que a sociedade queira entender como funcionam os sistemas de IA que usam. Não obstante, em modelos de IA complexos como redes neurais profundas, explicar decisões individuais é desafiador devido ao uso de bilhões de parâmetros em operações matemáticas complexas. Isolar o impacto específico de cada parâmetro é praticamente impossível, tornando a explicação detalhada de cada decisão tecnicamente inexequível. Portanto, é mais eficaz focar em entender padrões gerais do funcionamento do modelo, garantir a qualidade dos dados de treinamento e implementar medidas de segurança e filtros após o treinamento para aprimorar os resultados do que exigir um direito a explicabilidade individual.
top of page
Boas-vindas à Consulta Pública sobre Inteligência Artificial no Brasil.
Todas as contribuições serão analisadas, tabuladas e enviadas para o Congresso Nacional e outras autoridades. Além disso, os pontos apresentados na sua contribuição poderão gerar artigos, debates, análises, posts, vídeos, artigos de jornal e programas de TV, sempre com atribuição de crédito. Faremos todos os esforços para que sua contribuição aqui seja ouvida e amplamente divulgada!
bottom of page
Muito obrigado Dani. Transparência é essencial mesmo e é preciso do ponto de vista do projeto de lei realmente pensar a questão da transparência com relação a qualidade dos dados de treinamento, alinhamento, inclusão de safety e guardrails e outros pontos que você bem levantou.