Google vê desavença interna entre perceptibilidade sintético e humana; entenda – Money Times

-

- Publicidade -
O Google se recusou a comentar sobre a reunião de sexta-feira (Imagem: REUTERS/Oferecido Ruvic/Ilustração)

O Google (GOOGL), da Alphabet, mudará os procedimentos antes de julho para revisar o trabalho de seus cientistas, de pacto com a gravação de uma reunião ouvida pela Reuters, movimento que faz secção de um esforço para moderar a perturbação interna sobre a integridade de sua pesquisa em perceptibilidade sintético (IA).

Em comentários em uma reunião de equipe na sexta-feira passada, executivos do Google Research disseram que estavam trabalhando para reconquistar a crédito depois que a empresa demitiu duas mulheres proeminentes e rejeitou o trabalho delas, de pacto com uma gravação de 1 hora, dos quais teor foi confirmado por duas fontes.

As equipes já estão testando um questionário que avaliará os riscos dos projetos e ajudará os cientistas a velejar pelas análises, disse a diretora operacional da unidade de pesquisa Maggie Johnson na reunião.

Essa mudança inicial será implementada no final do segundo trimestre, e a maioria dos documentos não exigirá verificação extra, afirmou a executiva.

- Publicidade -

A Reuters relatou em dezembro que o Google havia apresentado uma revisão de “tópicos sensíveis” para estudos envolvendo dezenas de questões, porquê China ou preconceito em seus serviços.

Revisores internos exigiram que pelo menos três artigos sobre IA fossem modificados para evitar colocar a tecnologia do Google em uma luz negativa, informou a Reuters.

Jeff Dean, vice-presidente sênior do Google que supervisiona a repartição, disse na sexta-feira que a revisão “de tópicos delicados” é e era confusa “e que ele encarregou um diretor sênior de pesquisa, Zoubin Ghahramani, para esclarecer as regras, de pacto com a gravação.

Google
A Reuters relatou em dezembro que o Google havia apresentado uma revisão de “tópicos sensíveis” para estudos envolvendo dezenas de questões (Imagem: Unsplash/@mitchel3uo)
- Advertisement -

Ghahramani, um professor da Universidade de Cambridge que ingressou no Google em setembro vindo da Uber Technologies, disse durante a reunião: “Precisamos estar confortáveis com esse desconforto” da pesquisa autocrítica.

O Google se recusou a comentar sobre a reunião de sexta-feira.

Um e-mail interno, visto pela Reuters, deu novos detalhes sobre as preocupações dos pesquisadores do Google, mostrando exatamente porquê o departamento jurídico do Google modificou um dos três documentos de IA, chamado “Extraindo dados de treinamento de grandes modelos de linguagem”.

O e-mail, datado de 8 de fevereiro, de um coautor do paper, Nicholas Carlini, foi enviado a centenas de colegas, buscando invocar sua atenção para o que ele nomeou de edições “profundamente insidiosas” de advogados da empresa.

- Publicidade -

“Vamos ser claros cá”, dizia o e-mail de aproximadamente 1.200 palavras. “Quando nós, porquê acadêmicos, escrevemos que temos uma ‘preocupação’ ou encontramos um tanto ‘preocupante’ e um jurista do Google exige que mudemos para tanger melhor, isso é muito mais um Big Brother intervindo.”

As edições necessárias, de pacto com seu e-mail, incluíam trocas de “negativo para neutro”, porquê mudar a termo “preocupações” para “considerações” e “perigos” para “riscos”. Os advogados também exigiram a exclusão de referências à tecnologia do Google; da invenção dos autores de que a IA vazou teor protegido por direitos autorais; e as palavras “violação” e “sensível”, dizia o e-mail.

Carlini não respondeu aos pedidos de comentários. O Google, em resposta a perguntas sobre o e-mail, contestou sua alegado de que os advogados estavam tentando controlar o tom do documento.

A empresa disse que não teve problemas com os tópicos investigados pelo paper, mas encontrou alguns termos jurídicos usados de forma imprecisa e conduziu uma edição completa porquê resultado.

- Publicidade -

Compartilhe

Recent comments