Os trabalhadores que tornaram o ChatGPT menos prejudicial pedem aos legisladores que impeçam a suposta exploração da Big Tech

 


Trabalhadores quenianos que ajudaram a remover conteúdo nocivo do ChatGPT , o mecanismo de busca inteligente da OpenAI que gera conteúdo com base em solicitações do usuário, apresentaram uma petição aos legisladores do país pedindo-lhes que iniciassem investigações sobre a moderação de conteúdo de terceirização de Big Tech e o trabalho de IA no Quênia.

Os peticionários querem investigações sobre a “natureza do trabalho, as condições de trabalho e as operações” das grandes empresas de tecnologia que terceirizam serviços no Quênia por meio de empresas como a Sama – que está no centro de vários litígios sobre suposta exploração, violação de sindicatos e demissões em massa ilegais de moderadores de conteúdo .

A petição segue uma reportagem da Time que detalhou a lamentável remuneração dos trabalhadores da Sama que tornava o ChatGPT menos tóxico, e a natureza de seu trabalho, que exigia leitura e rotulagem de textos gráficos, incluindo a descrição de cenas de assassinato, bestialidade e estupro. O relatório afirmou que no final de 2021 Sama foi contratada pela OpenAI para “rotular descrições textuais de abuso sexual, discurso de ódio e violência” como parte do trabalho para construir uma ferramenta (que foi incorporada ao ChatGPT) para detectar conteúdo tóxico.

Os trabalhadores dizem que foram explorados e não receberam apoio psicossocial, mas foram expostos a conteúdos nocivos que os deixaram com “doença mental grave”. Os trabalhadores querem que os legisladores “regulamentem a terceirização de tecnologia nociva e perigosa” e protejam os trabalhadores que o fazem.

Eles também estão pedindo que promulguem uma legislação que regule a “terceirização de trabalho de tecnologia prejudicial e perigosa e proteja os trabalhadores envolvidos em tais compromissos”.

A Sama diz que conta com 25% das empresas da Fortune 50, incluindo Google e Microsoft, como seus clientes. O principal negócio da empresa com sede em São Francisco é a anotação, curadoria e validação de dados de visão computacional. Emprega mais de 3.000 pessoas em seus hubs, incluindo o do Quênia. No início deste ano, a Sama abandonou os serviços de moderação de conteúdo para se concentrar na anotação de dados de visão computacional , demitindo 260 funcionários.

A resposta da OpenAI à suposta exploração reconheceu que o trabalho era desafiador, acrescentando que havia estabelecido e compartilhado padrões éticos e de bem-estar (sem dar mais detalhes sobre as medidas exatas) com seus anotadores de dados para que o trabalho fosse entregue “com humanidade e boa vontade”.

Eles observaram que, para construir uma inteligência geral artificial segura e benéfica, a anotação de dados humanos era um dos muitos fluxos de seu trabalho para coletar feedback humano e orientar os modelos para um comportamento mais seguro no mundo real.

“Reconhecemos que este é um trabalho desafiador para nossos pesquisadores e trabalhadores de anotação no Quênia e em todo o mundo – seus esforços para garantir a segurança dos sistemas de IA foram imensamente valiosos”, disse o porta-voz da OpenAI.

Sama disse ao TechCrunch que estava aberta a trabalhar com o governo queniano “para garantir que as proteções básicas estejam em vigor em todas as empresas”. Ele disse que acolhe auditorias de terceiros sobre suas condições de trabalho, acrescentando que os funcionários têm vários canais para levantar preocupações e que “realizou várias avaliações e auditorias externas e internas para garantir que estamos pagando salários justos e proporcionando um ambiente de trabalho que é digno”.
Postagem Anterior Próxima Postagem