Toda discussão que tem perpassado a Inteligência Artificial, dentro da academia, está muito centralizada em princípios norteadores e sistemas de prestação de contas. A despeito da destacada relevância que ambos institutos possuem a fim de definir o regime jurídico de responsabilidade civil e de indenização em caso de dano, e, ainda, dos meios de como deve ser pautado o serviço prestado por meio de IA, pouco ou nada se fala sobre o letramento digital e a educação da sociedade civil.
Ao final, quem manipula o sistema é, pois, o usuário ou consumidor, destinatário final da tecnologia e que pouco sabe acerca dos riscos e eventuais problemas que podem decorrer do mau uso ou do uso inadequado da ferramenta.
Há quem distorça, propositadamente, por exemplo, a finalidade dos modelos de linguagem de IA, como ChatGPT utilizando-se de palavras chulas ao se dirigir à assistente virtual, por entender ser divertido, gerando, por outro lado, baixo índice de precisão do resultado. Ou, ainda, quem compartilha informações de cunho pessoal ou privado durante o uso, com inequívoco risco sobre a integridade de tais dados.
O direito à informação transparente, a autodeterminação informativa, são vetores legais que percorrem a rotina dos cidadãos que, na maior parte das vezes, sequer foi treinado minimamente para uso da ferramenta, potencializando os riscos que, ao final, são suportados pelos próprios.
De modo que, para além das discussões sobre modelos de accountability, é imperioso que se crie formas de educar a população- tal como ocorreu com o advento dos computadores domésticos, que invadiram as residências e exigiram que a população do início dos anos 2000 se preparasse em cursos de informática, tendo ocorrido o mesmo algumas décadas antes com os cursos de datilografia para utilização das máquinas de escrever - por meio de medidas legais que incluam o estudo e o debate civil sobre o uso de IA na pauta das discussões sobre o tema.
Rafaella Marcolini