Incluso los expertos en IA están copiando la tarea: construir una base de conocimientos personal eficiente utilizando LLM Wiki

robot
Generación de resúmenes en curso

Redacción: contribuidor principal de Biteye Shouyi

*El texto completo tiene aproximadamente 2300 caracteres y se estima un tiempo de lectura de 6 minutos

Alimentas a la IA con materiales todos los días, y de inmediato se olvida; ¿Token enloquecidamente derrochado y, al final, la base de conocimientos termina convirtiéndose en un “edificio a medio terminar”?

El excofundador de OpenAI / director de IA de Tesla, Andrej Karpathy @karpathy, acaba de dar la solución definitiva. El 3 de abril, publicó un tuit que superó los 17 millones de visualizaciones y lanzó como código abierto una guía dura llm-wiki.

Esta guía, que obtuvo más de 5000 Stars, propone: usar un modelo grande para construir tu propia base de conocimientos personal; así te despides del “gastar Token a ciegas” y haces que el conocimiento, como un activo digital, “genere intereses automáticamente”.

¡Hoy, la redacción te desglosa a fondo de forma práctica este tutorial utilizable que incluso los grandes usan!

01 ¿Por qué antes siempre fallabas al hacer una base de conocimientos?

Antes de empezar a montarla, primero entiende dos patrones de fallo más comunes para evitar caer en lo mismo.

  1. RAG tradicional (recuperación aumentada)

El mayor problema de este tipo de enfoque es que quema Token y aun así es “amnésico”. Cuando le das decenas de miles de palabras de un whitepaper del sector cripto o los artículos de IA más recientes, se las arregla para leerlos a toda prisa y te devuelve un resumen en versión corta. Pero la semana siguiente le preguntas: “¿Qué diferencia hay entre ese proyecto de la semana pasada y este competidor de hoy?” Y solo recuerda aquel resumen raquítico. Porque cada llamada depende de una recuperación fragmentada y el conocimiento no se forma ni se consolida de manera estructurada, lo que consume un volumen enorme de Token.

  1. Wiki tradicional (notas hechas a mano)

Este tipo de enfoque se caracteriza por ser totalmente manual: etiquetar, crear enlaces bidireccionales, armar el índice… Karpathy lo dijo de forma contundente: “La raíz de que organizar el conocimiento sea lo más molesto no es leer ni pensar, sino ‘hacer contabilidad’ (clasificar, maquetar)”. Los humanos se cansan, y la IA siempre está en línea. Antes, toda esa chamba sucia la cargaban los humanos a la fuerza; el resultado inevitable fue rendirse.

02 Desglose de la lógica: la “línea de producción totalmente automatizada” de LLM Wiki

La clave del plan de Karpathy está en el cambio de identidad: tú solo te encargas de ser “la persona que busca material”; toda la chamba sucia y el trabajo pesado se lo das a la IA. Este sistema consta de tres capas lógicas:

Primera capa: banco de materia prima (entra, pero no sale)

Lo que ves normalmente—informes profundos, tuits largos, tutoriales de IA, grabaciones de podcasts—lo metes directamente. Aquí hay una “única fuente de verdad” absoluta: el modelo grande solo puede mirar, está totalmente prohibido modificar.

Segunda capa: zona central de Wiki (asignación total a la IA)

Aquí todo son archivos Markdown puros. No tienes que preocuparte en absoluto por el formato; la IA extraerá automáticamente las materias primas en “tarjetas de conceptos” y “tablas de comparación de competidores por carril”. Tú solo lees; la IA se encarga de escribir y actualizar.

Tercera capa: reglas SOP (tu código de casa)

Crea un archivo de configuración CLAUDE.md o GPT.md y dile a la IA nuestras normas. Por ejemplo: “Todos los informes de investigación del sector cripto deben extraer la tokenómica y los antecedentes del equipo”, “Todos los tutoriales de IA deben resumir 3 códigos de Prompt ejecutables”.

03 Tutorial práctico: tres acciones para pasar de “quemar Token” a “valorización de activos” ya tienen línea de producción; ¿cómo ponerlo a correr? Las siguientes tres acciones clave hacen que tu base de conocimientos empiece a generar intereses automáticamente en un segundo:

Acción 1: entrada automática (Ingest)

Práctica de la langosta: metes un informe profundo de 20k palabras sobre Web3 y dejas una frase: “Ayúdame a recordarlo”.

Ejecución de la IA: lee rápidamente en segundo plano; no solo genera automáticamente el archivo del Proyecto A_Notas de investigación y proyección.md, sino que también actualiza de forma automática el directorio.md global, e incluso añade este nuevo proyecto al documento de análisis de competidores por carril.md que escribiste antes. ¡Lees una vez y todo el ecosistema se conecta!

Acción 2: preguntas y “capitalización del conocimiento” (Query)

Práctica de la langosta: de forma casual preguntas: “Mezcla las 5 publicaciones más recientes que guardé sobre técnicas de Prompt para modelos grandes y escribe un texto estilo post de Xiaohongshu que sea viral.” La IA, al instante, recupera la esencia de alta concentración y te lo redacta completo.

Capitalización del conocimiento: Karpathy enfatiza que las buenas preguntas y las buenas respuestas no deben quedarse guardadas en el chat cogiendo polvo. Si crees que este texto de resumen quedó bien, simplemente ordena a la IA: “Guarda este resumen de vuelta en Wiki y crea una nueva página llamada Prompt plantilla universal.md”. Esto es como una “nueva pignoración” (Restaking) del conocimiento; ¡cuanto más lo usas, más robusto se vuelve!

Acción 3: limpieza a fondo a medianoche (Lint)

Práctica de la langosta: antes de dormir das la instrucción “haz un chequeo de salud de la base de conocimientos”.

Ejecución de la IA: escanea todo globalmente como si fuera un robot aspirador. Al día siguiente, temprano por la mañana te informa: “Jefe, la herramienta de IA que guardaste el mes pasado ahora cobra, y entra en conflicto con la lógica de la ‘guía gratis para robar/evitar pagar’ que guardaste ayer. ¿Necesitas que la actualice?”

04 Configuración avanzada: Obsidian + modelo grande = el complemento definitivo

Cuando antes se trataba de memoria a largo plazo, siempre era imposible evitar bases de datos vectoriales complejas; pero para la gente común, el umbral era demasiado alto y, si la búsqueda local no rendía bien, la experiencia era extremadamente inútil. Karpathy recomienda la combinación definitiva: Obsidian (software local de notas) + modelo grande.

Obsidian es como un editor de código, y el modelo grande es tu programador subcontratado. Al abandonar bases de datos complejas, solo necesitas dos archivos centrales para reducir el consumo de Token a la mitad:

index.md (esquema global): registra los resúmenes y enlaces de todas las páginas. Cada vez que la IA responda una pregunta, primero mira una vez el esquema y luego recupera con precisión las notas correspondientes; no tienes que volver a leer cientos de miles de palabras cada vez. ¡El consumo de Token baja 90%!

log.md (registro de operaciones): registra, en orden cronológico, qué hizo la IA cada día y qué archivos modificó, para que puedas “pasar lista” en cualquier momento.

Con el recorte con un clic desde las páginas web y el gráfico de “constelación de conocimientos” global de Obsidian, la base de conocimientos también puede volverse visual.

05 Resumen: inicia tu era de “hacer que el conocimiento produzca”

En 2026, con la explosión de la información, quien pueda sedimentar el conocimiento con el costo de fricción más bajo, podrá usar la menor cantidad de Token para mover el mayor apalancamiento.

Como dijo Karpathy en esta apertura de código, no es código rígido, sino un “documento ideológico” para que la IA lo lea. Solo tienes que pasar el enlace de su guía a tu Agent dedicado y podrás entrar en el modo de ganar tumbado.

¡Haz que se mueva tu base de conocimientos, que los Token no se acaben y que tu langosta ya no sea una langosta de ojos que no se crían/muerden por cariño!

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado