O Controle de Risco deve ser feito de forma limitada, deixando claro quais os papéis da ferramenta e plataforma e quais as responsabilidades atribuídas ao autor.
Está claro que o potencial do uso da Inteligência Artificial é Infinito e exponencial, a atribuição de culpa aos fornecedores coloca o Brasil em uma situação delicada, podendo gerar uma crise futura e marginalizando as empresas que prestam serviços ou até mesmo usam as IA´s no dia a dia.
A Atribuição de responsabilidade ao Autor e o protagonismo humano, torna possível que tenhamos vantagem competitiva e coloca o Brasil em uma posição que incentiva a adoção e ao mesmo tempo não tolera o uso negativo da IA.
Precisamos direcionar o controle de risco e o mau uso da Inteligência artificial ao seu verdadeiro culpado, o ser humano e não colocar a culpa na ferramenta, a qual não há como ter controle sobre as inumeras e infinitas aplicações.
top of page
Boas-vindas à Consulta Pública sobre Inteligência Artificial no Brasil.
Todas as contribuições serão analisadas, tabuladas e enviadas para o Congresso Nacional e outras autoridades. Além disso, os pontos apresentados na sua contribuição poderão gerar artigos, debates, análises, posts, vídeos, artigos de jornal e programas de TV, sempre com atribuição de crédito. Faremos todos os esforços para que sua contribuição aqui seja ouvida e amplamente divulgada!
bottom of page
Olá Juliana. Me refiro a todos humanos que agem sobre a IA, seja como desenvolvedor, treinador ou usuário.
Acho que em todos os casos a ética deve ser o elemento fundamental da ação.
Sem dúvida a maquina não pode ser responsabilizada. Mas o se humano que desenvolve e treina os LLM da IA têm sua responsabilidade.