Kliver
Kliver
Escrito
4 Ene, 2026
7 min de lectura

El puente que nadie está construyendo

El puente que nadie está construyendo

Dos industrias de miles de millones de dólares están resolviendo el mismo problema sin saberlo. Una entrena humanos. La otra extrae datos de humanos. El futuro pertenece a quien las una.

Dos mundos paralelos

En Seattle, una startup llamada Yoodli acaba de levantar 40 millones de dólares. Su producto: simulaciones con inteligencia artificial donde vendedores practican conversaciones difíciles antes de hacerlas en la vida real. Los usuarios hablan con un avatar que responde como un cliente escéptico, un jefe exigente, o un inversor impaciente. Después de cada sesión, reciben feedback instantáneo. La empresa reporta 900% de crecimiento en ingresos. Gartner proyecta que para 2026, el 60% de las grandes empresas usarán herramientas similares.

En San Francisco, una startup llamada Scale AI acaba de recibir una inversión de 14 mil millones de dólares de Meta. Su producto: ejércitos de trabajadores humanos que etiquetan datos para entrenar modelos de inteligencia artificial. Cada vez que un humano indica "esta respuesta es mejor que esta otra", está enseñándole a la máquina algo que la máquina no puede aprender sola. El mercado de datos de entrenamiento para IA vale casi 3 mil millones de dólares hoy. Para 2032, será de 17 mil millones.

Dos industrias. Dos valuaciones astronómicas. El mismo insight fundamental: los humanos tienen algo que las máquinas necesitan desesperadamente.

Pero hay un problema. Ninguna de las dos está construyendo el puente.

El gap invisible

Yoodli y sus competidores. Second Nature, Mindtickle, Exec. entrenan humanos usando IA. Sus usuarios practican ventas, negociaciones, conversaciones difíciles. Desarrollan juicio, empatía, capacidad de leer contexto. Habilidades que, como exploramos en "El arte de preguntar", son exactamente las que las máquinas no pueden replicar.

Scale AI y sus competidores. Surge, Appen, Invisible. extraen datos de humanos para entrenar IA. Sus trabajadores pasan horas evaluando respuestas, etiquetando imágenes, indicando preferencias. Es trabajo repetitivo, poco estimulante, y fundamentalmente extractivo. El humano da; la máquina recibe. No hay desarrollo, no hay crecimiento, no hay beneficio mutuo.

¿Ven el gap?

Las plataformas de simulación generan exactamente el tipo de comportamiento humano auténtico que los laboratorios de IA necesitan. decisiones bajo ambigüedad, respuestas empáticas, juicios contextuales. pero no capturan ese valor. Las plataformas de data labeling capturan valor pero no generan desarrollo humano. Una crea; la otra extrae. Ninguna hace ambas cosas.

Es como si existieran gimnasios donde la gente hace ejercicio, y fábricas donde se produce energía, pero nadie hubiera inventado la bicicleta fija que genera electricidad mientras pedaleas.

Mercor y la validación accidental

En octubre de 2025, una startup fundada por chicos de 22 años llamada Mercor alcanzó una valuación de 10 mil millones de dólares. Ocho meses antes valía 2 mil millones. ¿Qué pasó?

Mercor empezó como una plataforma de recruiting con IA. Conectaba empresas con talento. Pero rápidamente pivoteó hacia algo más lucrativo: proveer expertos de dominio. científicos, abogados, médicos. para entrenar modelos de inteligencia artificial. No estaba vendiendo candidatos para trabajos tradicionales. Estaba vendiendo juicio humano especializado para enseñarle a las máquinas lo que no pueden aprender solas.

El timing fue perfecto. Cuando Meta invirtió 14 mil millones en Scale AI y el CEO de Scale renunció para unirse a Meta, los grandes laboratorios de IA. OpenAI, Google DeepMind, Anthropic. buscaron alternativas. Mercor estaba ahí, con una red de más de 30,000 expertos que colectivamente reciben más de 1.5 millones de dólares por día.

Pero Mercor tiene una limitación. Sus expertos proveen conocimiento, pero Mercor no los desarrolla. Es un modelo de matching, no de educación. Los humanos dan; Mercor intermedia; los labs reciben. El flujo es unidireccional.

La serpiente necesita alimento

En "La serpiente que se come a sí misma" exploramos el problema del model collapse. la degradación que ocurre cuando los modelos de IA se entrenan con contenido generado por otros modelos de IA. Para abril de 2025, el 74% de las nuevas páginas web contenían texto generado por inteligencia artificial. El veneno ya está en el agua.

Los laboratorios de IA enfrentan una crisis de suministro. Necesitan datos humanos verificados, estructurados, y de alta calidad. Pero los métodos tradicionales de obtenerlos. scraping de internet, crowdsourcing masivo, mechanical turk. ya no funcionan. El contenido está contaminado. Los trabajadores están desmotivados. La calidad se degrada.

El modelo extractivo llegó a su límite. La serpiente necesita alimento que no sea ella misma.

El gimnasio que genera electricidad

Imaginá un modelo diferente. Una plataforma donde los humanos practican habilidades valiosas. ventas, negociación, comunicación empática, toma de decisiones bajo presión. y cada sesión de práctica genera datos comportamentales auténticos.

El usuario mejora. Desarrolla juicio. Se vuelve más empleable. Y simultáneamente, produce exactamente el tipo de datos que los laboratorios de IA necesitan desesperadamente: decisiones humanas reales, respuestas empáticas genuinas, juicios contextuales auténticos.

No es extracción. Es simbiosis. El gimnasio genera electricidad mientras la gente hace ejercicio.

Y hay un ingrediente extra que hace todo esto posible: proof of personhood. Usando tecnología como World ID, cada participante puede demostrar que es un humano real y único, sin revelar su identidad. Esto protege a los labs de IA del model collapse. saben que los datos que reciben son genuinamente humanos, no generados por bots.

La economía de los agentes

Hay un elemento adicional que hace este momento único: los agentes de IA.

En 2025, Salesforce lanzó el primer marketplace de agentes del mundo. AWS, Oracle, y Microsoft siguieron. El mercado de agentic AI. sistemas de IA que actúan autónomamente. está valuado en 7.5 mil millones de dólares hoy y se proyecta que alcanzará 200 mil millones para 2034.

Un dato revelador: el 80% de las nuevas bases de datos en Neon (una plataforma de bases de datos) son creadas automáticamente por agentes de IA, no por humanos. Los agentes ya están adquiriendo recursos de forma programática.

¿Qué significa esto para el mercado de datos? Que el futuro no es humanos comprando datos para entrenar IA. Es IA comprando datos para entrenarse a sí misma.

Un marketplace de datos preparado para esta realidad no tendría una interfaz diseñada para humanos navegando catálogos. Tendría APIs y protocolos para que los agentes descubran, negocien, y adquieran datos de entrenamiento de forma autónoma. El humano proveería los datos. El agente los compraría. La infraestructura facilitaría la transacción.

Quien construya esta infraestructura primero tendrá una ventaja estructural difícil de replicar.

El nuevo contrato social

Volvemos, inevitablemente, al mismo punto de siempre.

En "El arte de preguntar" argumentamos que el juicio humano. la capacidad de navegar ambigüedad, leer contexto, decidir sin manual. es la habilidad que las máquinas no pueden replicar. En "La serpiente que se come a sí misma" mostramos que esa habilidad no solo es valiosa en sí misma, sino que es el ingrediente esencial para que las máquinas sigan mejorando.

Ahora la pregunta es: ¿quién captura ese valor?

El modelo actual es extractivo. Las plataformas de data labeling pagan por hora, no por valor creado. Los humanos son commodities intercambiables. Sus datos se venden sin su conocimiento, su consentimiento, o su participación en las ganancias. Es la economía de la atención aplicada al trabajo cognitivo: tu juicio tiene valor, pero el valor se lo queda otro.

Pero no tiene que ser así.

Imaginá un modelo donde los humanos que contribuyen los datos que entrenan IA:

Es un nuevo contrato social. Los humanos entrenan a la IA. La IA ayuda a entrenar a los humanos. Aprendices, maestros, y laboratorios de IA se reparten la torta.

El puente no es solo entre dos industrias. Es entre dos visiones del futuro: una donde los humanos son insumos descartables, y otra donde son socios indispensables.

El recurso escaso

Hace no mucho tiempo, el recurso escaso era la información. Después fue la atención. Ahora es la verificabilidad humana.

El contenido generado por humanos verificados se está convirtiendo en el nuevo acero de bajo fondo. el acero producido antes de 1945, antes de que las pruebas nucleares contaminaran la atmósfera. Ese acero es esencial para fabricar sensores de alta precisión. Se comercia a precios premium porque no se puede fabricar más.

De manera similar, los datos humanos de alta calidad, verificados y estructurados, se están volviendo el recurso más valioso de la economía de la inteligencia artificial. Y a diferencia del acero de bajo fondo, sí podemos producir más. si construimos la infraestructura correcta.

El puente está esperando. La pregunta es quién lo cruza primero.

Join the Conversation

We're just getting started on this journey. If you're interested in the intersection of human quality data and AI, we'd love to hear from you.

Kliver Team
Research & Strategy