Dos investigadores de la Universidad de Tsukuba en Japón crearon recientemente un sistema de gestión de cartera de criptomonedas basado en inteligencia artificial que utiliza datos en la cadena de aprendizaje, el primero de su tipo según los investigadores.

Llamado CryptoRLPM, abreviatura de «administrador de cartera de aprendizaje de refuerzo de criptomonedas», el sistema de IA utiliza una técnica de aprendizaje llamada «aprendizaje de refuerzo» para implementar datos en cadena en su modelo.

El aprendizaje por refuerzo (RL) es un paradigma de optimización en el que un sistema de IA interactúa con su entorno, en este caso, una cartera de criptomonedas, y actualiza su aprendizaje en función de las señales de recompensa.

CryptoRLPM implementa comentarios de RL en toda su arquitectura. El sistema está estructurado en cinco unidades principales que trabajan en conjunto para procesar información y administrar carteras estructuradas.

Estos módulos incluyen la Unidad de alimentación de datos, la Unidad de refinamiento de datos, la Unidad de agente de cartera, la Unidad de operaciones en vivo y la Unidad de actualización de agentes.

LEER  Mastercard permite pagos criptográficos en Web3 a través de liquidaciones de USDC
Preprint Research Captura de pantalla 2023 Huang, Tanaka, «Un sistema de refuerzo escalable basado en el aprendizaje que utiliza datos en cadena para la gestión de carteras de criptomonedas»

Una vez desarrollado, los investigadores probaron el CryptoRLPM asignándole tres carteras. El primero contenía solo Bitcoin (BTC) y Storj (STORJ), el segundo mantuvo BTC y STORJ mientras agregaba Bluzelle (BLZ), y el tercero mantuvo los tres junto con Chainlink (LINK).

Los experimentos se realizaron durante un período de octubre de 2020 a septiembre de 2022 con tres fases separadas (entrenamiento, validación, back-test).

Los investigadores miden el éxito de CryptoRLPM frente a una estimación de referencia del rendimiento estándar del mercado a través de tres métricas: «tasa de rendimiento acumulada» (AAR), «tasa de rendimiento diaria» (DRR) y «relación Sortino» (SR).

AAR y DRR son medidas rápidas de cuánto ha perdido o ganado un activo durante un período de tiempo, y SR mide el rendimiento ajustado al riesgo del activo.

Preprint Research Captura de pantalla 2023 Huang, Tanaka, «Un sistema de refuerzo escalable basado en el aprendizaje que utiliza datos en cadena para la gestión de carteras de criptomonedas»

Según el trabajo de investigación previo a la impresión de los científicos, CryptoRLPM demuestra mejoras significativas sobre el rendimiento de referencia:

«Específicamente, CryptoRLPM muestra una mejora de al menos un 83,14 % en ARR, una mejora de al menos un 0,5603 % en DRR y una mejora de al menos un 2,1767 en SR, en comparación con el Bitcoin base».

Conectado: DeFi se encuentra con AI: ¿Podría esta sinergia ser el nuevo enfoque de las adquisiciones tecnológicas?