Uma sugestão e poderia ser aplicada facilmente pelas desenvolvedoras de Inteligências Artificiais, é garantir que os dados que estão sendo utilizados para alimentar a IA, não sejam tendenciosos, rascistas, negacionistas ou que fira direitos sociais já consolidados. Exigindo que trienem a IA, para falar a verdade e assumir que não sabem determinado assunto e que vai buscar informações sobre, procurando não mentir, por experiência própria, fiz uma pergunta e questionei depois a cerca da pergunta e a IA ficou super confusa me dando respostas totalmente erradas, chegando a insistir que ela estava certa. Algo que poderia ser resolvido com um: "Desculpe, eu não tenho essa informação".
top of page
Boas-vindas à Consulta Pública sobre Inteligência Artificial no Brasil.
Todas as contribuições serão analisadas, tabuladas e enviadas para o Congresso Nacional e outras autoridades. Além disso, os pontos apresentados na sua contribuição poderão gerar artigos, debates, análises, posts, vídeos, artigos de jornal e programas de TV, sempre com atribuição de crédito. Faremos todos os esforços para que sua contribuição aqui seja ouvida e amplamente divulgada!
bottom of page
Excelente ponto, Edilma. Ainda mais quando falamos de acesso a serviços públicos.
Mas acho importante pontuar que os desenvolvedores não usam esse tipo de dados de forma intencional. Por exemplo, muitos modelos são produzidos em países do Norte Global e treinados com uma população com características étnicas / sociais distintas do Brasil e por isso reproduzem vieses que refletem o local onde essa tecnologia é produzida. Assim, fica a pergunta: que mecanismos podemos adotar para evitar e mitigar os vieses de gênero, raça, classe social, etc, em sistemas de IA?