Meta se mudou para dezenas de imagens fraudulentas e sexualizadas de famosas atores e atletas depois que a investigação da CBS News encontrou uma alta prevalência de Imagens de Deepfake de Ai-manipuladas Na plataforma do Facebook da empresa.
Dezenas de imagens falsas e altamente sexualizadas dos atores Miranda Cosgrove, Jennette McCurdy, Ariana Grande, Scarlett Johansson e a ex -estrela do tênis Maria Sharapova foram compartilhadas amplamente por várias contas do Facebook, conquistando altos de milhares de curtidas e muitos remédios na plataforma.
“Removemos essas imagens para violar nossas políticas e continuaremos monitorando outras postagens violadas. Este é um desafio em todo o setor, e estamos continuamente trabalhando para melhorar e matricular tecnologia”, disse o porta-voz da Meta Logan ao CBS Newment enviado por e-mail na sexta-feira.
Uma análise de mais de uma dúzia dessas imagens pelo defensor da realidade, plataforma que trabalha para detectar a mídia AI-Gegeted, mostrou que muitas das fotos eram imagens deepfake com corpos de roupas íntimas e roupas íntimas, substituindo os corpos das celebridades inocentes fotografias reais. Provavelmente, algumas das imagens foram criadas usando ferramentas de costura de imagens que não invadiram a IA, de acordo com a análise do Defender Reality.
“Quase toda a pornografia de Deepfake não tem o consentimento de o assunto ser profundo”, disse Ben Colman, co-fundador e CEO da Reality Defender ao CBS News no domingo. “Esse conteúdo está crescendo a uma taxa desgastante, especialmente as medidas existentes para interromper esse conteúdo raramente são implementadas”.
A CBS News procurou comentários de Miranda Cosgrove, Jennette McCurdy, Ariana Grande e Maria Sharapova nessa história. Johansson se recusou a emitir qualquer comentário, de acordo com o representante do ator.
Sob a política de bullying e assédio da Meta, a empresa proíbe “Photoshop ou desenhos sexualizados depreciativos” em suas plataformas. A empresa também proíbe nudez adulta, atividade sexual e exploração sexual de adultos, e seus regulamentos pretendem impedir que os usuários compartilhem ou ameaçam compartilhar imagens íntimas não consensuais. A Meta também lançou o uso de etiquetas “AI Info” para marcar claramente o conteúdo que é manipulado da IA.
Mas as perguntas permanecem sobre a eficácia do policiamento da empresa de tecnologia desse conteúdo. A CBS News descobriu que dezenas de imagens sexualizadas e sexualizadas de Ai-Gets de Cosgrove e McCurdy ainda disponíveis publicamente no Facebook, mesmo após o conteúdo generalizado de compartilhamento, violando os termos da empresa, foi sinalizado para meta.
Uma dessas imagens Deepfake de Cosgrove que ainda estava no fim de semana foi compartilhada por uma conta com 2,8 milhões de seguidores.
Os dois atores – ambos ex -estrelas infantis do show da Nickelodeon “Icarly”, que pertence à empresa controladora da CBS News Paramount Global – são os mais prolificamente direcionados para o conteúdo do DeepFake, com base nas imagens de figuras públicas que a CBS analisou.
O Supervision Board Meta’s, o órgão quase independente que consiste em especialistas no campo dos direitos humanos e liberdade de expressão, e faz recomendações para moderação de conteúdo nas plataformas da Meta, disse à CBS News em uma declaração por e-mail que os regulamentos atuais da empresa em torno do conteúdo sexualizado de DeepFake são insuficientes.
O Conselho de Supervisão citou recomendações que fez para meta no ano passado, incluindo a insistência de tornar suas regras mais claras, atualizando sua proibição novamente “Photoshop sexualizado depreciado” para incluir especificamente a palavra “e para a essência fofo fot. LÁ.
O conselho também recomenda que a meta dobrasse sua proibição de “Photoshop sexualizados depreciativo” nos regulamentos de exploração sexual adulta da empresa, de modo que a moderação desse conteúdo seria mais rigidamente aplicada.
Perguntado na segunda -feira pela CBS News sobre as recomendações do conselho, meta apontou para o Diretrizes em seu site de transparênciaQue mostram que a empresa está avaliando a viabilidade de três das quatro recomendações do Conselho de Supervisão e está implementando uma de suas sugestões, embora a Meta observada em sua declaração está atualmente descartando a mudança do idioma de sua política “sextizada de depreciação”, que explica a apólice de que explica “, que explica em que explica o adultos”, que explica o sexo e o meta -fusível “que explica o sexo e o sexo com o que explica o adulto” não é o que é um meta -teto “, que é um meta -de -setão”, que é um meta -teto “, atualmente, é o que se sexual”, que explica o que explica o adultos “, que explica o que explica”, o meta -teto “se sexual, que é um dose -tenos que explicam a política de dentes de dentes.
A Meta observou em sua declaração que ainda estava considerando maneiras de sinalizar uma falta de consentimento em imagens geradas pela IA. A Meta também disse que estava considerando reformas em suas políticas de exploração de sexo adulto, para “capturar o espírito” das recomendações do conselho.
“O Conselho de Supervisão deixou claro que imagens íntimas não consuais do DeepFake são a violação séria da privacidade e da dignidade pessoal, a desproporcção prejudicando mulheres e meninas. Essas imagens não são apenas um uso indevido de tecnologia-eles são uma forma de abuso que pode ter conseqüências duradouras”, Michael McConnell, uma placa de supervisão co-Chair, disse CBS News na sexta-feira.
“O Conselho é a resposta do Monitor de Ativa e continuará a pressionar por salvaguardas mais fortes, uma grande empresa e maior responsabilidade”, disse McConnell.
A Meta não é a única companhia medial social a enfrentar a questão do conteúdo generalizado e sexualizado do DeepFake.
No ano passado, a plataforma de Elon Musk X bloqueou as pesquisas de Taylor Swift, depois que as imagens pornográficas falsas da A-Getget, à semelhança do cantor, circularam com tanta plataforma e ganharam milhões de visualizações e impressões.
“Publicar imagens de nudez não consalsansual (NCN) é estritamente proibida em X e temos policia de tolerância zero em relação a esse conteúdo”, disse a equipe de segurança da plataforma No post no momento.
Um estudo publicado no início deste mês pelo governo do Reino Unido descobriu o número de imagens de DeepFake em plataformas de mídia social se expandindo a uma taxa rápida, com o governo projetando que 8 milhões de Deepfakes serão compartilhados este ano, contra 500.500.000 em 2023.
lojas help whatsapp
emprestimo no cartao de credito simulação
qual a taxa de juros para emprestimo consignado
empréstimos funcionários públicos
banco bmg curitiba
empréstimo consignado taxa
valores emprestimo consignado
como fazer empréstimo pelo inss
empréstimo consignado taxa de juros
telefone do banco bmg central
quem nao pode fazer emprestimo consignado
juros emprestimo consignado
emprestimo manaus