O Controle de Risco deve ser feito de forma limitada, deixando claro quais os papéis da ferramenta e plataforma e quais as responsabilidades atribuídas ao autor.
Está claro que o potencial do uso da Inteligência Artificial é Infinito e exponencial, a atribuição de culpa aos fornecedores coloca o Brasil em uma situação delicada, podendo gerar uma crise futura e marginalizando as empresas que prestam serviços ou até mesmo usam as IA´s no dia a dia.
A Atribuição de responsabilidade ao Autor e o protagonismo humano, torna possível que tenhamos vantagem competitiva e coloca o Brasil em uma posição que incentiva a adoção e ao mesmo tempo não tolera o uso negativo da IA.
Precisamos direcionar o controle de risco e o mau uso da Inteligência artificial ao seu verdadeiro culpado, o ser humano e não colocar a culpa na ferramenta, a qual não há como ter controle sobre as inumeras e infinitas aplicações.
top of page
Boas-vindas à Consulta Pública sobre Inteligência Artificial no Brasil.
A primeira fase da Consulta Pública chegou ao fim, mas você ainda pode participar da conversa! Todas as contribuições enviadas até o dia 02 de dezembro de 2024 foram analisadas e serão publicadas em breve no site do ITS.
Você ainda pode compartilhar sua opinião e participar das futuras fases da Consulta. Além disso, pode continuar votando nas proposições que extraímos dessa primeira fase: Área da Saúde - Academia e Movimento Maker
bottom of page
Olá Juliana. Me refiro a todos humanos que agem sobre a IA, seja como desenvolvedor, treinador ou usuário.
Acho que em todos os casos a ética deve ser o elemento fundamental da ação.
Sem dúvida a maquina não pode ser responsabilizada. Mas o se humano que desenvolve e treina os LLM da IA têm sua responsabilidade.