Inteligência artificial, inovação ou crise… A condição de confiança digital focada no estudo de políticas de ativação da indústria Web 3.0

robot
Geração de resumo em curso

De acordo com o “Relatório de Pesquisa sobre Políticas de Ativação da Indústria Web 3.0”, algumas análises indicam que a rápida difusão da inteligência artificial (IA) está liderando a inovação no setor, mas também ampliando paralelamente seus efeitos colaterais de erosão da confiança social. Em particular, casos de uso indevido de tecnologias como deepfake, phishing por voz, entre outros, já se tornaram uma realidade, e as pessoas estão cada vez mais preocupadas com a dependência excessiva de IA e a disparidade de aplicações, que estão tendo um impacto negativo na estrutura social como um todo.

O professor Yin Xibin, da Universidade de Xijiang, no relatório, define a essência dos efeitos colaterais da IA como “não apenas falhas técnicas, mas também todos os impactos negativos causados pelo uso indevido e abusivo por parte dos humanos”. O relatório foca especialmente em três aspectos: “aumento da brecha digital”, “dependência excessiva de digital” e “crimes e atividades ilegais”.

Primeiramente, a análise aponta que o aumento da brecha digital se manifesta na diferença de estrutura de pagamento e acesso a modelos de IA de alto desempenho, na disparidade de capacidade de processamento de dados entre grandes corporações e pequenas e médias empresas, e na variação de desempenho causada pela qualidade dos dados disponíveis, podendo ampliar a disparidade de produtividade de forma exponencial. Por exemplo, grupos de usuários com acesso limitado a ferramentas de IA pagas inevitavelmente ficarão para trás na automação da produtividade.

A dependência excessiva de digital está relacionada à degeneração da capacidade de pensamento inerente ao ser humano. Isso inclui fadiga e pressão decorrentes de tarefas repetitivas, como validação e modificação de resultados gerados automaticamente por IA, até o ponto de se cair na estrutura de “não conseguir trabalhar sem IA”. Em particular, o fenômeno de “degeneração de habilidades” é apontado como um fator de risco que, independentemente do desenvolvimento da IA, enfraquece as capacidades humanas.

Um problema ainda maior é o uso indevido da IA para fins criminosos. O relatório alerta que casos de crimes sexuais por meio de deepfake, fraudes envolvendo CEOs falsificados, falsificação de evidências, entre outros, já são uma realidade. O fenômeno de “diluição da verdade” está se agravando, dificultando cada vez mais a avaliação da veracidade das informações. Tecnologias de síntese de voz baseadas em IA tornam o phishing por voz mais sofisticado, enquanto a manipulação de opinião pública com objetivos micro direcionados pode se tornar um fator catastrófico na disseminação de notícias falsas e na divisão social.

Diante disso, o relatório propõe soluções tecnológicas específicas. Recomenda-se, além de aprimorar algoritmos de detecção de deepfake, a implementação obrigatória do padrão C2PA e marcas d’água digitais que permitam verificar a origem do conteúdo. Além disso, a análise sugere que a construção de um sistema de confiança digital baseado em Web 3.0, utilizando autenticação de identidade distribuída, provas de conhecimento zero e certificação de conteúdo via blockchain, está se tornando uma alternativa central.

No âmbito político, há um apelo crescente para fortalecer penalidades criminais contra a disseminação de deepfake, esclarecer as responsabilidades dos operadores de plataformas e promover a construção de infraestrutura pública de IA. Ao mesmo tempo, há uma opinião de que é urgente desenvolver educação em alfabetização digital para todas as gerações, de jovens a adultos.

O professor Yin Xibin, através do relatório, enfatiza que, além das soluções tecnológicas, a educação ética, a governança de políticas e a colaboração entre setor industrial, academia e sociedade civil são essenciais. Se os efeitos colaterais da IA forem negligenciados, não só poderá ocorrer uma crise de confiança tecnológica, mas também a democracia digital e a ordem econômica podem estar ameaçadas.

A direção final não é restringir o ritmo de desenvolvimento tecnológico, mas avançar na formação de “normas centradas no ser humano” para utilizar a tecnologia de forma justa e responsável. O relatório conclui que, para transformar a IA em uma ferramenta de prosperidade social, é necessário promover simultaneamente uma regulamentação flexível, a construção de sistemas coordenados e um ecossistema de confiança sustentável.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar

Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)