Inovação

Atualizações da indústria de IA: fevereiro de 2024

Foco foi em trazer elementos éticos e boas práticas ao uso de tecnologia

Published

on

imagem conceito de inteligência artificial; indústria de IA

Neste fevereiro, o setor de inteligência artificial (IA) está avançando com regulamentações, certificações e melhores práticas destinadas a limitar a influência de deepfakes e instigar comportamentos éticos. Enquanto isso, os consumidores vão apreciar a entrada de ferramentas focadas em estilo de vida, projetadas para simplificar suas vidas digitais. A Stylus separou novidades relevantes da indústria de IA neste mês de fevereiro. Confira a seguir:

Certificação ética de IA

A organização americana sem fins lucrativos Fairly Trained introduziu seu esquema de certificação de Modelo Licenciado, que identifica empresas que utilizam dados obtidos legalmente para treinar seus algoritmos de IA. Para serem certificadas, as empresas devem usar dados explicitamente licenciados para fins de treinamento, de domínio público, licenciados adequadamente ou pertencentes a elas. A taxa de certificação varia de $500 a $6.000 (dependendo do tamanho da empresa) e permite que as empresas exibam a marca d’água Fairly Trained.

Atualmente, muitos modelos de linguagem grandes (LLMs), incluindo o ChatGPT da gigante da indústria de IA OpenAI, sediada na Califórnia, usam conteúdo não licenciado para treinamento. Em dezembro de 2023, o The New York Times processou a OpenAI por utilizar seus artigos sem permissão para treinar seus chatbots. Enquanto a OpenAI afirma que o compartilhamento cruzado de conteúdo digital significa que é impossível eliminar material protegido por direitos autorais dos dados de treinamento, as discussões em torno das implicações de direitos autorais da IA provavelmente vão acelerar em 2024, tornando esquemas de certificação como o Fairly Trained cada vez mais relevantes.

Novas ferramentas que detectam conteúdo gerado por IA

Entre deepfakes pornográficos da popstar Taylor Swift e uma ligação telefônica deepfake do presidente dos EUA, Joe Biden, antes das primárias de New Hampshire, há uma urgência crescente em limitar o uso desagradável de IA. O governo dos EUA proibiu chamadas telefônicas automáticas geradas por IA em resposta, mas mais passos são necessários.

O Meta defende o uso de metadados para identificar texto, imagens ou vídeos produzidos com IA. De acordo com o Meta, isso permitiria que empresas de mídia determinassem facilmente quando o conteúdo gerado por IA é compartilhado e automaticamente o rotulassem de acordo. A OpenAI está incorporando metadados, juntamente com uma marca d’água visível, em todas as imagens geradas por seu chatbot Dall-E 3.

Visando textos, pesquisadores da Universidade de Maryland desenvolveram o Binoculars, uma ferramenta de detecção de IA com uma taxa de precisão de 99,9%. Enquanto a ferramenta pode identificar plágio em artigos acadêmicos, os pesquisadores também observaram que ela poderia ajudar a reconhecer conteúdo criado por IA em mídias sociais ou plataformas de notícias.

imagem conceito de inteligência artificial; indústria de IA

Escrito por Emilia Morano-Williams para Stylus

Imagem: 

Continue Reading
Click to comment

Leave a Reply

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *