Com cada vez mais imagens e vídeos "deep fake" surgindo, a Microsoft decidiu tomar medidas proativas para garantir que sua arte de IA gerada processualmente possa ser identificada, informou a Financial Associated Press em 24 de maio. Na conferência de desenvolvedores Build 2023 da Microsoft, a empresa anunciou que adicionará um recurso nos próximos meses que permitirá a qualquer pessoa identificar se uma imagem ou videoclipe gerado pelo Bing Image Creator e Microsoft Designer foi gerado por IA. A Microsoft diz que a tecnologia usa métodos criptográficos para marcar e assinar conteúdo gerado por IA, juntamente com informações de metadados sobre sua origem. A Microsoft diz que o recurso funcionará com “principais formatos de imagem e vídeo” suportados por seus dois programas de geração de conteúdo de IA, mas não anunciou quais formatos ele suporta.
Ver original
O conteúdo é apenas para referência, não uma solicitação ou oferta. Nenhum aconselhamento fiscal, de investimento ou jurídico é fornecido. Consulte a isenção de responsabilidade para obter mais informações sobre riscos.
Microsoft marcará conteúdo gerado por IA para combater deepfakes
Com cada vez mais imagens e vídeos "deep fake" surgindo, a Microsoft decidiu tomar medidas proativas para garantir que sua arte de IA gerada processualmente possa ser identificada, informou a Financial Associated Press em 24 de maio. Na conferência de desenvolvedores Build 2023 da Microsoft, a empresa anunciou que adicionará um recurso nos próximos meses que permitirá a qualquer pessoa identificar se uma imagem ou videoclipe gerado pelo Bing Image Creator e Microsoft Designer foi gerado por IA. A Microsoft diz que a tecnologia usa métodos criptográficos para marcar e assinar conteúdo gerado por IA, juntamente com informações de metadados sobre sua origem. A Microsoft diz que o recurso funcionará com “principais formatos de imagem e vídeo” suportados por seus dois programas de geração de conteúdo de IA, mas não anunciou quais formatos ele suporta.