ética do cuidado e transparência como inegociáveis para a constru??o de uma Inteligência Artificial responsável

ética do cuidado e transparência como inegociáveis para a constru??o de uma Inteligência Artificial responsável

Nos dias 11 a 14 de Novembro estive presente no maior evento de tecnologia do mundo, o Web Summit, que ocorreu em Lisboa. Dessa vez, o tema central n?o foi se a Inteligência Artificial veio para ficar em nossas vidas, mas como veio, qual é o seu impacto, desafios e riscos para implementa??o dessa tecnologia na vida das pessoas e na??es. Como uma pessoa que estuda profundamente direitos humanos e gênero, eu estava lá para entender de perto como isso impacta as pessoas e seus direitos, sobretudo grupos subrepresentados em espa?os de poder em nossa sociedade. Infelizmente, os debates sobre justi?a climática, viés de gênero e ra?a em algoritmos, diversidade e inclus?o na tecnologia, aconteceram, mas ainda de forma marginalizada dos palcos de destaque. Nesse artigo, reúno 6 principais reflex?es que obtive nos três dias de conferência:

?

  • Equilíbrio entre regula??o e inova??o da IA. Muitos paineis trouxeram a ambivalência de que é preciso fomentar a inova??o, mas com responsabilidade. E que para criar um ecossistema responsável é necessária a cria??o de regras claras de transparência de como essa tecnologia está sendo implementada.

Governos têm um papel fundamental nesse equilíbrio e podem ajudar quando a inclus?o e a justi?a s?o vistas como funda??o da IA para evitar a coloniza??o digital e a explora??o de dados e pessoas.

Para isso, é vital a transparência em como os dados est?o sendo usados. Transparência n?o é fraqueza é o oposto. Transparência constroi confian?a. Políticos e líderes precisam explicar o que eles est?o fazendo com a tecnologia. E que quando a tecnologia é realizada de maneira colaborativa, ela sempre terá mais impacto. No fundo estamos falando de uma crise de valores morais: quando n?o há transparência, honestidade e princípios éticos em jogo na cria??o e implementa??o de uma tecnologia, instaura-se medo, inseguran?a e desconfian?a nas pessoas. Exatamente a ambivalência que estamos vivendo hoje com a IA.??

  • Direitos digitais s?o direitos humanos. Para o fortalecimento da democracia, é essencial definir as regras e a infraestrutura de desenvolvimento da Inteligência Artificial.

Como as tecnologias podem fortalecer e n?o erodir as democracias criando ainda mais polariza??o e divis?o digital? Qual o papel dos jornalistas frente à IA? Como jornalistas podem educar a popula??o sobre deepfake entregando notícias de contexto e n?o necessariamente treinando a audiência no uso de IA? Como a tecnologia pode apoiar a humanidade?

Ao mesmo tempo que temos o aumento de informa??es falsas nas redes sociais, também tivemos denuncias sendo realizadas mostrando, por exemplo, a brutalidade policial contra pessoas negras. S?o dois lados da mesma moeda. Nesse sentido, existe um papel enorme dos governos em conter informa??es falsas e como regular as mídias sociais. Ainda há uma busca por modelos e melhores práticas de regula??o. Como avan?amos na tecnologia sem deixar ninguém para trás? S?o 2.6 bilh?es de pessoas que n?o possuem acesso à Internet. Há uma enorme divis?o digital. Quais s?o as vozes que est?o sendo incluídas e excluídas na cria??o e implementa??o da tecnologia? Por fim, precisamos letrar criticamente as pessoas sobre o uso da tecnologia, ajudando-as a entender as nuances dela, caso contrário a polariza??o aumentará.

  • As big techs est?o matando a confian?a? Nesse painel comandado pela presidenta do Signal, Meredith Whittaker, ela aponta a necessidade de três mudan?as para as big techs: 1) Descentralizar as plataformas sociais; 2) Democratizar as conex?es sociais; 3) Tratar humanos como humanos. As big techs precisam desenvolver uma ética de maior cuidado com os usuários. Ainda, foi apontado o uso da IA como pretexto para vulnerabiliza??o de contratos de trabalho. As organiza??es já est?o precarizando o trabalho por meio de contratos que retiram direitos trabalhistas e aumentam a informaliza??o. Logo, uma jurisdi??o pode modelar muito uma tecnologia. Quais ferramentas nós temos para frear isso? Nos organizarmos uns aos outros. Comunidades regulam melhor as big techs.
  • Efeito de Rede (Network Effect). No painel “Diverse Minds, Disruptive Technology” (Mentes Diversas e Tecnologias Disruptivas), foi demonstrado que quando há diversidade no quadro societário de uma organiza??o, a diversidade se dá em efeito cascata por meio de indica??es. Em outras palavras, quando mudamos a diversidade da governan?a de C-level, mais rápida a diversidade acontece em todo o pipeline.

Painel "Diverse Minds, Disruptive Technology” (Mentes Diversas e Tecnologias Disruptivas)

Na mesma linha, o quanto antes a lideran?a for diversa, mais inova??o e impacto a organiza??o terá. Foi mencionado ainda, a contrata??o de talentos n?o óbvios como refugiados, que s?o altamente qualificados e podem trazer um olhar diferenciado para os negócios. Outro ponto mencionado foi a necessidade de democratizar o acesso de venture capital, ou seja, ensinar como investir desde o início para uma startup.?


  • O futuro da longevidade. Antes existia um estigma sobre longevidade onde a expectativa de vida era de 40 anos. Hoje é 80 anos. Nesse sentido, há uma mudan?a de narrativa: iremos viver bem e melhor?

Antes o foco era tratar doen?as como importante. Hoje o foco está na preven??o, na detec??o antecipada das doen?as e no envolvimento do paciente em todo o tratamento. Ainda, como a IA Generativa pode empoderar de forma customizada os médicos?

Outro dado interessante trazido foi que a falta de conex?o social é mais fator de risco para morte do que cigarro e bebida. A ausência de conex?es sociais aumentam o declínio cognitivo e doen?as cardiovasculares. Em outras palavras, estar em comunidade e ter bons amigos é um ótimo preventivo para a saúde mental.?

  • O viés de ra?a em IA e suas consequências reais. Nesta masterclass, Oyidiyo Oji, Conselheira de Política e Defesa dos Direitos Digitais na Rede Europeia Contra o Racismo (ENAR), explicou como o viés de ra?a na IA tem impactado comunidades racializadas em três frentes: 1) vulnerabilizando grupos marginalizados; 2) histórias que n?o s?o acreditadas e 3) promovendo a retraumatiza??o das comunidades. Isto é, o cuidado precisa estar no processo de cria??o da tecnologia para a constru??o de confian?a, a cria??o de um vocabulário comum e conectar o conhecimento da comunidade e sua experiência no processo de constru??o da tecnologia.

Para isso, é preciso come?ar questionando o status quo. Quem está no centro da tomada de decis?o da IA? Os direitos fundamentais est?o no centro da cria??o da tecnologia?

Assim como, é preciso que os empregadores invistam criticamente sobre a IA e aumente a legisla??o contra a dscrimina??o racial. é possível criar futuros alternativos que promovam a conex?o e o pertencimento em comunidades racializadas.??


Sobre Carine Roos: Mestre em Gênero pela London School of Economics and Political Science - LSE. Também é pós-graduada na Faculdade Israelista Albert Einstein em Cultivando Equilíbrio Emocional nas organiza??es e atua como especialista em Diversidade, Equidade e Inclus?o há 10 anos. Lidera a Newa, empresa de impacto social que prepara organiza??es para um futuro mais inclusivo por meio de sensibiliza??es, workshops, treinamentos e consultoria de diversidade.

Erica Oliveira

Professora e Pesquisadora Educa??o e Tecnologia no Ensino Superior | Especialista em Metodologias ágeis e Experiência do Usuário | Palestrante Diversidade, Equidade & Inclus?o

1 年

Muito obrigada, Carina!! Excelentes reflex?es!! Diversidade é importante, assim como as quest?es éticas no uso de IA!

要查看或添加评论,请登录

Carine Roos的更多文章

其他会员也浏览了