O pereche de cercetători de la Universitatea din Tsukuba din Japonia au construit recent un sistem de gestionare a portofoliului de criptomonede bazat pe inteligență artificială, care utilizează date în lanț pentru antrenament, primul de acest gen, potrivit oamenilor de știință.

Denumit CryptoRLPM, prescurtare pentru „Manager de portofoliu de învățare pentru întărirea criptomonedei”, sistemul de inteligență artificială (AI) folosește o tehnică de antrenament numită „învățare prin consolidare” pentru a implementa datele în lanț în modelul său.

Învățarea prin consolidare (RL) este o paradigmă de optimizare în care un sistem AI interacționează cu mediul său, în acest caz un portofel cu criptomonede, și își actualizează antrenamentul pe baza semnalelor de recompensă.

CryptoRLPM aplică feedback RL în întreaga arhitectură. Sistemul este structurat în cinci unități primare care lucrează împreună pentru a procesa informații și a gestiona portofolii structurate.

Aceste module includ o unitate de alimentare de date, o unitate de rafinare a datelor, o unitate de agent de portofoliu, o unitate de tranzacționare live și o unitate de actualizare a agentului.

Captură de ecran a cercetării pre-printare. Sursa: Huang, Tanaka, „A Scalable Reinforcement Learning-Based System Using On-Chain Data for Cryptocurrency Portfolio Management”

Odată dezvoltat, oamenii de știință au testat CryptoRLPM atribuindu-i trei portofele. Primul conținea doar Bitcoin (BTC) și Storj (STORJ), al doilea conținea BTC și STORJ în timp ce adaugă Bluzelle (BLZ), iar al treilea le conținea pe toate trei împreună cu Chainlink (LINK).

Experimentele s-au desfășurat într-o perioadă cuprinsă între octombrie 2020 și septembrie 2022, cu trei faze diferite (instruire, validare și backtesting).

Cercetătorii au măsurat succesul CryptoRLPM în raport cu o evaluare de referință a performanței standard de piață folosind trei metrici: rata cumulativă de rentabilitate (AAR), rata zilnică de rentabilitate (DRR) și raportul Sortino (SR).

AAR și DRR sunt măsuri dintr-o privire a cât de mult a pierdut sau câștigat un activ într-o anumită perioadă de timp, iar SR măsoară randamentul ajustat la risc al unui activ.

Captură de ecran a cercetării pre-printare. Sursa: Huang, Tanaka, „A Scalable Reinforcement Learning-Based System Using On-Chain Data for Cryptocurrency Portfolio Management”

Potrivit lucrării de cercetare pretipărire a oamenilor de știință, CryptoRLPM spectacole Îmbunătățiri semnificative față de performanța de referință:

„Concret, CryptoRLPM arată o îmbunătățire cu cel puțin 83,14% a ARR, cel puțin o îmbunătățire cu 0,5603% a DRR și cel puțin o îmbunătățire cu 2,1767 a SR, comparativ cu Bitcoin de referință.”

Legate de: DeFi întâlnește AI: Ar putea această sinergie să fie noua abordare a achizițiilor de tehnologie?