Devemos estabelecer princĂpios que busquem garantir que os sistemas de InteligĂȘncia Artificial (IA) e Aprendizado de MĂĄquina (ML) sejam desenvolvidos e utilizados de maneira a respeitar a vida, promover o bem-estar social, assegurar a continuidade das espĂ©cies e preservar o meio ambiente.Â
Os princĂpios devem estar alinhados com a Constituição brasileira, em particular com os seguintes pontos: o Artigo 1Âș, inciso III, que trata da dignidade humana; o Artigo 3Âș, incisos I, II e III, que delineiam os objetivos fundamentais da RepĂșblica Federativa do Brasil; e o Artigo 5Âș, em seu Caput e Inciso X, que garantem direitos fundamentais. AlĂ©m disso, Ă© importante considerar o Artigo 170, que estabelece as bases da ordem econĂŽmica, e o Artigo 225, que trata das normas ambientais, como referĂȘncias orientadoras tanto para aspectos econĂŽmicos quanto para a preservação ambiental.Â
Devendo tambĂ©m ampliar a compreensĂŁo das leis, tratados, convençÔes, relatĂłrios, diretrizes e pesquisas nacionais e internacionais pertinentes. Especial atenção deve ser dada Ă Declaração Universal dos Direitos Humanos (1948), aos Direitos Civis e PolĂticos (1966), aos Direitos EconĂŽmicos, Sociais e Culturais (1966), ao Tratado do Espaço Exterior (1967), Ă Convenção sobre a Proibição do Desenvolvimento, Produção e Armazenamento de Armas BacteriolĂłgicas (BiolĂłgicas) e TĂłxicas e Ă Sua Destruição (1972), Ă Convenção sobre a Diversidade BiolĂłgica (1992), aos PrincĂpios Orientadores das NaçÔes Unidas sobre Empresas e Direitos Humanos (2011), Ă Declaração de Montreal pelo Desenvolvimento ResponsĂĄvel da InteligĂȘncia Artificial (2018), ao RelatĂłrio do Alto Comissariado das NaçÔes Unidas para os Direitos Humanos sobre Discriminação Racial e Tecnologias Digitais Emergentes na QuadragĂ©sima Quarta SessĂŁo (2020), Ă s Diretrizes da OCDE para a InteligĂȘncia Artificial (2022), Ă Carta de Ătica da InteligĂȘncia Artificial da UNESCO (2021), Ă Lei Geral de Proteção de Dados Pessoais (LGPD, 2018) e ao Marco Civil da Internet (L12965, 2014).
Os sistemas de IA/ML devem ser concebidos com o objetivo de preservar e respeitar todas as formas de vida, assegurando que suas funçÔes e operaçÔes nĂŁo prejudiquem o meio ambiente ou Ă continuidade das espĂ©cies anteriores ou subsequentes Ă sua existĂȘncia. Mesmo quando desenvolvidos para fins de proteção social ou uso em situaçÔes de conflito, os sistemas de IA/ML devem sempre aderir aos seguintes princĂpios:
I - Respeito Ă Vida: Assegurar que todas as aplicaçÔes de IA/ML respeitem a dignidade e os direitos de todos os seres vivos, evitando danos fĂsicos ou psicolĂłgicos.
II - Promoção do Bem-Estar Social: Focar no desenvolvimento e implementação de soluçÔes que promovam o bem-estar social, incluindo a saĂșde, educação, segurança e a melhoria das condiçÔes de vida das populaçÔes.
III - Sustentabilidade Ambiental: Garantir que as tecnologias de IA/ML sejam desenvolvidas e utilizadas de maneira a minimizar impactos ambientais negativos, promovendo a sustentabilidade e a preservação da biodiversidade.
IV - Continuidade das EspĂ©cies: Manter como princĂpio fundamental a continuidade e a preservação das espĂ©cies. As inovaçÔes tecnolĂłgicas, incluindo aquelas destinadas a fins bĂ©licos ou de defesa, nĂŁo devem comprometer os ecossistemas ou a sobrevivĂȘncia das formas de vida. Deve-se assegurar que:
A IA/ML nĂŁo seja utilizada para genocĂdio, extermĂnio ou qualquer forma de violĂȘncia massiva contra os seres humanos ou outras espĂ©cies vivas.
As aplicaçÔes de IA/ML em conflitos armados sigam rigorosos padrÔes éticos e humanitårios, protegendo civis e evitando danos colaterais desproporcionais.
Qualquer sistema de IA/ML desenvolvido para uso militar ou de segurança deve ser projetado com salvaguardas explĂcitas para evitar açÔes autĂŽnomas que possam resultar em genocĂdio, extermĂnio ou destruição indiscriminada.
V - Ătica e TransparĂȘncia: Assegurar que o desenvolvimento e a aplicação de IA/ML sigam padrĂ”es Ă©ticos rigorosos, com transparĂȘncia nos processos e responsabilidade pelas açÔes e consequĂȘncias decorrentes de seu uso. Isso inclui:
Implementar prĂĄticas e regulamentos que previnam a discriminação de qualquer tipo, incluindo, mas nĂŁo se limitando a, discriminação racial, de classe, de gĂȘnero, de idade, Ă©tnica, religiosa ou baseada em crenças, orientação sexual, deficiĂȘncia fĂsica ou mental e qualquer outra forma de preconceito.
Garantir que os dados utilizados para o treinamento de sistemas de IA/ML sejam diversificados e representem adequadamente todas as partes da sociedade para evitar viéses discriminatórios.
Adotar medidas para identificar, corrigir e mitigar qualquer viĂ©s algorĂtmico ou discriminação embutida nos sistemas de IA/ML.
Divulgar de forma transparente as metodologias e bases de dados utilizadas no desenvolvimento de IA/ML, permitindo auditorias independentes e garantindo a accountability.
Implementar polĂticas de governança e compliance para assegurar que as aplicaçÔes de IA/ML respeitem os direitos humanos e promovam a justiça social.
Assegurar que sistemas de IA/ML nĂŁo sejam utilizados para fins de colonização social, respeitando a soberania nacional e evitando a violação de princĂpios Ă©ticos e de direitos humanos.
VI - Responsabilidade e SupervisĂŁo: Implementar mecanismos de supervisĂŁo e responsabilização para garantir que o uso de IA/ML esteja em conformidade com os princĂpios desta lei. ĂrgĂŁos reguladores e de fiscalização devem monitorar e avaliar continuamente as prĂĄticas de desenvolvimento e aplicação dessas tecnologias.
VII - Participação PĂșblica e Inclusiva: Envolver a sociedade civil, especialistas e grupos afetados no processo de desenvolvimento e regulamentação de IA/ML, assegurando que diversas perspectivas sejam consideradas e que as soluçÔes tecnolĂłgicas sejam justas e inclusivas.
Ătimos pontos, Edgard!