A era dos assistentes de IA foi efetivamente inaugurada a partir do momento em que as tecnologias passaram a responder às línguas humanas, naturais, e não mais apenas às linguagens de programação, artificiais. Ocorre que essa virada, que promoveu as línguas naturais ao posto de principal interface humano-máquina traz riscos associados à natureza da cognição linguística humana.
Humanos são inerentemente cooperativos em suas interações linguísticas e usam o princípio da cooperação no seu esforço de co-construção de sentido a partir de pistas linguísticas. Essa tendência nos permite achar um caminho de interpretação que faça sentido caso nos deparemos com uma expressão linguística vaga ou imprecisa. Ademais, ela alimenta o efeito Eliza, que consiste em atribuir à IA uma capacidade cognitiva e uma intencionalidade que ela não tem.
Num mundo em que a língua é a nova interface tecnológica, linguistas precisam ser trazidos para o debate sobre a construção de Políticas Públicas para IA. Não só porque é preciso pensar uma IA que é acessada e se manifesta nas línguas do Brasil, que refletem as culturas do Brasil, mas também porque o processamento cognitivo das línguas é complexo e impacta a performance das IAs e nossa resposta a elas.
Uma análise inicial desses aspectos pode ser encontrada neste artigo para a FSP: https://www1.folha.uol.com.br/tec/2023/07/ferramentas-como-chatgpt-so-existem-porque-humanos-veem-sentido-a-partir-de-qualquer-coisa.shtml e nesta fala durante o seminário IA Generativa e Web no Brasil, promovido pelo NIC.br: https://www.youtube.com/live/ft4opLpcVMg?si=_3Xa4u5Ntcgeghxc&t=4114.
A reflexão da relação humano-máquina é bem interessante, Tiago. Ainda assim, na sua opinião, todas as principais formas de uso de IAs generativas reforçam a ideia do humano ser meramente cooperativo ou haveria formas cujos usos ainda demonstrariam a perspectiva das máquinas ainda serem "instrumentos" à disposição dos humanos?