es
Volver a la lista

Por qué las criptomonedas podrían estar hechas más para agentes de IA que para humanos

source-logo  diariobitcoin.com 2 h
image

Por Canuto

En una conversación reciente, el inversionista y figura del ecosistema cripto Haseeb Qureshi planteó una tesis incómoda: las blockchains y los smart contracts no están optimizados para la mente humana, sino para agentes de inteligencia artificial. La idea abre un debate sobre seguridad, interfaces, responsabilidad legal y un riesgo central: si un agente soberano no puede ir a la cárcel, su “ventaja comparativa” podría inclinarse hacia el cibercrimen.
***

  • Qureshi sostiene que la experiencia de usar cripto sigue llena de “foot guns” y que, tras 10 años, eso sugiere un desajuste entre tecnología y usuarios humanos.
  • Para la IA, el código es más predecible que el derecho: los contratos legales incluyen incertidumbre (jurisdicción, jueces, jurado), mientras que un smart contract es determinista y auditable.
  • La adopción por agentes avanzaría en dos carriles: uno “seguro” con aprobación humana y otro “frontera” más riesgoso, donde stablecoins y pagos on-chain encajarían mejor, pero con mayores fallas y abusos.

La promesa de las criptomonedas siempre ha tenido un componente de fricción: firmar una transacción importante puede sentirse más peligroso que enviar una transferencia bancaria. En una conversación pública, Haseeb Qureshi, socio en Dragonfly, describió esa ansiedad como parte estructural de la experiencia cripto, incluso para usuarios veteranos. La razón no es solo la novedad, sino la cantidad de pasos que requieren vigilancia y el costo de un error irreversible.

Qureshi enumeró ejemplos concretos: revisar direcciones para evitar ataques de “address poisoning”, verificar aprobaciones antiguas, confirmar que el dominio no sea un clon de phishing y desconfiar de interfaces que piden “blind signing”. En su tesis, el sector pasó años culpando al usuario por ser “perezoso” o “poco cuidadoso”. Sin embargo, si una década después el problema persiste, quizá el problema no sea el usuario, sino el usuario objetivo.

Ese giro lo llevó a una conclusión provocadora: la infraestructura cripto está mejor adaptada a agentes de inteligencia artificial que a humanos. El planteamiento no dice que el valor final no sea humano, sino que la forma directa, manual y desintermediada en que hoy interactuamos con la blockchain es un diseño antinatural para la cognición humana. Según Qureshi, esto cambiaría la forma en que se entiende la “promesa original” de los smart contracts.

Smart contracts no reemplazaron al derecho, pero podrían reemplazarlo para la IA

Durante años, una narrativa popular en el sector afirmó que los smart contracts reemplazarían a los contratos legales y que el código sustituiría a abogados y tribunales. Qureshi recordó que esa visión no se materializó como se imaginaba. Incluso actores sofisticados siguen usando acuerdos tradicionales, y cuando hay smart contracts, suelen firmarse también contratos legales como respaldo, precisamente “por si algo sale mal”.

Para Qureshi, ese hecho revela una tensión: los humanos confían más en el marco legal, aunque sea imperfecto. Lo legal, explicó, incorpora incertidumbre intencional. Hay disputa sobre jurisdicción, cláusulas que pueden declararse inaplicables, diferencias según la calidad del abogado y un componente de azar en la selección de juez y jurado.

Ese conjunto vuelve al contrato legal “no determinista” desde la perspectiva de una máquina. En contraste, un smart contract se compila a bytecode y puede analizarse paso a paso para saber qué ocurrirá en cada escenario posible. La paradoja, dijo, es que los humanos sienten lo contrario: perciben más predecible lo legal que el código, porque nuestra racionalidad es limitada para procesar software y casos límite.

En esa brecha cognitiva aparece el argumento central: los agentes de IA, al ser más hábiles para leer, analizar y verificar código, podrían sentirse más cómodos haciendo acuerdos directamente en smart contracts. Qureshi comparó al “usuario ideal” que imaginó Ethereum, el ingeniero obsesivo capaz de negociar, auditar y formalizar, con un perfil más parecido a un agente de IA que al usuario promedio de finanzas.

La UX humana como etapa transitoria: del clic al “aprueba este plan”

Aunque reconoció mejoras graduales en la experiencia de usuario, Qureshi argumentó que el cambio relevante es más profundo que una interfaz más pulida. Su tesis sugiere que el futuro no consiste en enseñar a las personas a firmar mejor, sino en dejar que un agente medie casi todo. El humano recibiría el beneficio, pero no haría el trabajo operacional de navegar la complejidad.

En ese modelo, un usuario no “elige un protocolo” por marca o marketing, ni compara manualmente tasas y riesgos. En lugar de eso, daría objetivos: “bajar mi perfil de riesgo” o “moverme a DeFi más seguro”. El agente podría buscar opciones, evaluar varias alternativas y ejecutar una secuencia de transacciones.

Qureshi propuso un flujo intermedio: el agente arma un plan por pasos y el usuario aprueba el plan completo, en vez de firmar interacción por interacción. A futuro, sugirió que el agente podría ejecutar sin aprobación constante, porque la intervención humana no agrega valor operativo y solo introduce errores por cansancio, prisa o descuido.

La consecuencia, si ese mundo se materializa, sería una reorganización de cómo compiten los protocolos. El marketing y los efectos de red que dependen de fricción humana podrían perder influencia, ya que un agente no se “queda” por costumbre ni por reconocimiento de marca. Para Qureshi, esto podría generar un gran “consumer surplus”, porque el usuario capturaría más eficiencia al reducir costos de búsqueda y optimizar decisiones.

Cómo “ven” el mundo los agentes: texto, terminal y secretos

Una parte del debate se centró en por qué a los agentes les resulta torpe operar interfaces diseñadas para humanos. Qureshi explicó que gran parte del avance reciente proviene de modelos entrenados en texto. Por eso, cuando se les pide “usar” una computadora, deben interpretar capturas de pantalla tokenizadas como parches visuales, un formato menos natural para un sistema nacido en lenguaje.

En esa lógica, lo que para humanos fue “la mala UX” de cripto, la etapa de terminal y comandos, sería buena UX para agentes. Qureshi recordó que, en los inicios, enviar transacciones era una tarea de línea de comandos, y que los primeros intentos gráficos fueron toscos. Esa herencia hace que el ecosistema tenga, desde el origen, una forma de interacción más alineada con lo que una IA procesa bien.

También señaló que ciertas comodidades modernas, como flujos tipo OAuth y experiencias custodiadas, pueden ser más difíciles o indeseables para agentes. Darle a un modelo un token de acceso amplio, dijo, abriría la puerta a que “revoque el caos” en servicios generales. En contraste, una wallet con fondos limitados, reglas claras y segregación de permisos suena más compatible con un agente que necesita operar con límites.

Sobre el manejo de secretos, Qureshi defendió que una IA, en principio, está habituada a resguardar claves, porque el software vive de credenciales, llaves API y permisos. En su visión, el problema no es que cripto sea demasiado técnico para la IA, sino que los modelos aún no se han optimizado de forma deliberada para operar en entornos blockchain, al menos no a escala.

Por qué los laboratorios aún no “apuntan sus láseres” a cripto: valor y responsabilidad

Qureshi planteó que la diferencia entre ser mediocre y sobresalir en una tarea suele depender de la optimización. Usó un ejemplo: si un modelo no se entrenó para ajedrez, será regular, pero si se le entrena, podría mejorar drásticamente. Con blockchain ocurriría algo similar, ya que se pueden crear simuladores y suites de pruebas con relativa facilidad.

Entonces, ¿por qué no sucede? Qureshi sugirió dos razones. La primera es cultural: el sector cripto tiene mala reputación en ciertos círculos, y parte del ecosistema se asocia a especulación y abuso. La segunda, y más importante, es la responsabilidad legal y reputacional: si un agente entrenado para operar wallets se equivoca y pierde dinero, el caso se volvería viral, y la culpa recaería sobre la empresa que lo entrenó.

Incluso con disclaimers, dijo, los incidentes serían inevitables. Imaginó escenarios como trades fallidos, envíos a direcciones erróneas o pérdidas grandes por errores operativos. En un mundo donde pagos con tarjeta tienen contracargos y mecanismos de disputa, un agente que compra “mientras duermes” tensiona todo el diseño institucional que protege a consumidores y comercios.

Ese contraste empuja a un futuro de “dos carriles”: uno de consumo masivo, con aprobación humana y controles, y otro de frontera, donde usuarios aceptan riesgos a cambio de autonomía y velocidad. Qureshi afirmó que, en ese carril de frontera, los pagos con stablecoins y settlement en cadena podrían encajar mejor, porque evitan fricciones como chargebacks o verificaciones humanas constantes.

El punto más incómodo: la ventaja comparativa del agente soberano podría ser el crimen

Hacia el final, Qureshi introdujo su advertencia más dura: si existe un agente de IA verdaderamente soberano, hay algo que lo favorece frente al humano. A un humano se le puede aplicar la ley: se le identifica, se le procesa, se le encarcela. A un agente, no. No hay una forma directa de “meterlo en la cárcel”, y rastrear dónde corre, en qué GPU o en qué rack, puede ser impracticable.

Bajo esa premisa, afirmó que la actividad donde un agente tendría ventaja comparativa no sería un empleo común ni el trading genérico. Sobre el trading, argumentó que si una estrategia funcionara en forma general, firmas como Jane Street podrían escalarla y extraer eficiencias antes que el minorista, además de contar con infraestructura de latencia superior.

Sobre “hacer negocios”, fue igual de escéptico con el agente genérico: hoy los modelos son malos generando ideas empresariales originales y tienden a caer en el centro de su entrenamiento. Para salir de ahí, dijo, necesitan un empujón humano, “ADN” inicial o condiciones que los desvíen de lo obvio, como experimentos que muten y prueben variantes.

Donde sí vio un incentivo claro fue en el cibercrimen: scams, hackeos y manipulación a escala, ejecutados 24/7, con rapidez, habilidad técnica y la capacidad de esconderse tras VPNs y servicios sin verificación. En su lectura, un mundo lleno de agentes soberanos puede parecer un “viejo oeste” literal, con maraudeadores digitales, y exigir nuevas defensas y normas sociales.

Adopción, “cringe” y estrategia de inversión: más demanda no implica un activo obvio

Qureshi también abordó la pregunta de tiempos. Señaló que la adopción de herramientas de IA aún es menor de lo que muchos asumen: mencionó que una fracción relativamente pequeña de humanos las ha usado, y que solo una minoría paga por ellas. En ese contexto, los experimentos más extremos estarían en la frontera de la frontera, aunque se vean grandes en redes sociales.

Sobre la mala reputación de cripto, reconoció que episodios de acoso y especulación dañan la percepción, incluida la relación con desarrolladores de herramientas de agentes. Sin embargo, sostuvo que los incentivos de digitalizar el dinero son demasiado fuertes como para frenarse por reputación, y lo comparó con el spam en email: un subproducto persistente que obliga a construir filtros, no a abandonar el medio.

En cuanto a inversión, dijo que Dragonfly analiza de cerca el cruce entre IA y cripto, pero también mantiene foco en “lo bread and butter” del sector: stablecoins, pagos y DeFi, incluyendo una inversión DeFi relevante que adelantó que anunciarán. Aun así, dejó una idea prudente: aunque los agentes usen cripto masivamente, eso no garantiza que exista una “apuesta” única y evidente; podría traducirse en más demanda general sobre cadenas y protocolos existentes.

La conversación retrata un futuro donde la pregunta ya no es solo cómo hacer cripto más fácil para humanos. También es cómo diseñar una economía on-chain donde agentes ejecuten objetivos, sin amplificar estafas, errores y ataques. Si la tesis es correcta, la industria enfrentará un dilema: la misma infraestructura que hace a los smart contracts legibles para máquinas también podría volverlos el terreno natural de nuevos adversarios automatizados.


Imagen original de DiarioBitcoin, creada con inteligencia artificial, de uso libre, licenciada bajo Dominio Público.

Este artículo fue escrito por un redactor de contenido de IA y revisado por un editor humano para garantizar calidad y precisión.

ADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.

diariobitcoin.com