Uma sugestão e poderia ser aplicada facilmente pelas desenvolvedoras de Inteligências Artificiais, é garantir que os dados que estão sendo utilizados para alimentar a IA, não sejam tendenciosos, rascistas, negacionistas ou que fira direitos sociais já consolidados. Exigindo que trienem a IA, para falar a verdade e assumir que não sabem determinado assunto e que vai buscar informações sobre, procurando não mentir, por experiência própria, fiz uma pergunta e questionei depois a cerca da pergunta e a IA ficou super confusa me dando respostas totalmente erradas, chegando a insistir que ela estava certa. Algo que poderia ser resolvido com um: "Desculpe, eu não tenho essa informação".
top of page
Boas-vindas à Consulta Pública sobre Inteligência Artificial no Brasil.
A primeira fase da Consulta Pública chegou ao fim, mas você ainda pode participar da conversa! Todas as contribuições enviadas até o dia 02 de dezembro de 2024 foram analisadas e serão publicadas em breve no site do ITS.
Você ainda pode compartilhar sua opinião e participar das futuras fases da Consulta. Além disso, pode continuar votando nas proposições que extraímos dessa primeira fase: Área da Saúde - Academia e Movimento Maker
bottom of page
Excelente ponto, Edilma. Ainda mais quando falamos de acesso a serviços públicos.
Mas acho importante pontuar que os desenvolvedores não usam esse tipo de dados de forma intencional. Por exemplo, muitos modelos são produzidos em países do Norte Global e treinados com uma população com características étnicas / sociais distintas do Brasil e por isso reproduzem vieses que refletem o local onde essa tecnologia é produzida. Assim, fica a pergunta: que mecanismos podemos adotar para evitar e mitigar os vieses de gênero, raça, classe social, etc, em sistemas de IA?