Uma comparação interessante: os modelos de IA podem ter alucinações, mas as alucinações humanas parecem mais graves.
O que você vê ao navegar nas redes sociais? Uma grande quantidade de pessoas que se imaginam como membros da alta direção ou grandes acionistas de uma Fortune 500, todos os dias operando no mundo das suas próprias alucinações. Essas pessoas nunca ocuparam realmente esses cargos, mas dão palpites sobre as decisões comerciais dos outros.
Há também uma categoria ainda mais absurda — pessoas cuja vida é um caos, mas que estão sempre tentando orientar os outros sobre como viver. Essa capacidade lógica é realmente impressionante.
O mais ridículo é aqueles que não têm poder nem assumem qualquer consequência, mas são os mais ativos em exigir dos outros. Dizer que é "preocupação" soa bem, mas na verdade é apenas querer controlar os outros.
A ironia aqui é que: as alucinações dos modelos de IA ainda podem ser corrigidas, basta otimizar as palavras-chave e ajustar os parâmetros. Mas essas alucinações humanas? Não há "palavras-chave" correspondentes que possam reparar seu sistema de cognição.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
16 gostos
Recompensa
16
5
Republicar
Partilhar
Comentar
0/400
TokenAlchemist
· 14h atrás
não, a metáfora da engenharia de prompts é diferente... os humanos realmente são bugs irreparáveis lol
Ver originalResponder0
MetaverseVagrant
· 01-11 03:56
Uff, esta metáfora do "prompt" é perfeita...realmente não pode ser mudada...
O bug deste sistema humano é muito profundo, simplesmente não há plano de rollback
Falando francamente, é tudo sobre vontade de poder - quando não têm poder, querem compensar com poder virtual
O custo das alucinações destas pessoas é zero, mas as alucinações de IA ainda levam críticas...irônico mesmo
Não encontramos um prompt que repare o cérebro humano, mas podemos bloquear, haha
Nunca considerou que a tua própria capacidade lógica talvez tenha problemas? De qualquer forma, a internet não falta críticos
As falhas cognitivas humanas são muito mais difíceis de fazer patch do que falhas de poder de processamento
É por isso que confio mais em código, não em pessoas da secção de comentários
Vivem uma vida confusa e ainda querem guiar os outros...acordem pessoal
Ver originalResponder0
LiquidityWizard
· 01-11 03:55
Não, a abordagem de engenharia de prompts é realmente genial—falando empiricamente, os humanos estão basicamente a operar com pesos corrompidos neste momento. Não dá para depurar. Máquina de coping estatisticamente significativa mesmo
Ver originalResponder0
DeFiAlchemist
· 01-11 03:55
nah fr, isto é diferente... o protocolo do ego humano está muito mais quebrado do que qualquer alucinação de LLM, sem exagero. pelo menos podes ajustar parâmetros e re-otimizar, mas tenta dizer a um larper que a sua estratégia de yield farming é ilusória? smh a transmutação falha todas as vezes 💀
Ver originalResponder0
MemecoinTrader
· 01-11 03:42
nah isto tem um impacto diferente... a verdadeira manipulação psicológica é as pessoas fingindo ser tomadores de decisão enquanto não têm nada a perder. manipulação de sentimento clássica sem consequências fr fr
Uma comparação interessante: os modelos de IA podem ter alucinações, mas as alucinações humanas parecem mais graves.
O que você vê ao navegar nas redes sociais? Uma grande quantidade de pessoas que se imaginam como membros da alta direção ou grandes acionistas de uma Fortune 500, todos os dias operando no mundo das suas próprias alucinações. Essas pessoas nunca ocuparam realmente esses cargos, mas dão palpites sobre as decisões comerciais dos outros.
Há também uma categoria ainda mais absurda — pessoas cuja vida é um caos, mas que estão sempre tentando orientar os outros sobre como viver. Essa capacidade lógica é realmente impressionante.
O mais ridículo é aqueles que não têm poder nem assumem qualquer consequência, mas são os mais ativos em exigir dos outros. Dizer que é "preocupação" soa bem, mas na verdade é apenas querer controlar os outros.
A ironia aqui é que: as alucinações dos modelos de IA ainda podem ser corrigidas, basta otimizar as palavras-chave e ajustar os parâmetros. Mas essas alucinações humanas? Não há "palavras-chave" correspondentes que possam reparar seu sistema de cognição.