Denaro, mercati e apprendimento automatico: svelare i rischi dell’intelligenza artificiale avversaria

Blog

CasaCasa / Blog / Denaro, mercati e apprendimento automatico: svelare i rischi dell’intelligenza artificiale avversaria

Aug 29, 2023

Denaro, mercati e apprendimento automatico: svelare i rischi dell’intelligenza artificiale avversaria

È impossibile ignorare il ruolo fondamentale che l’intelligenza artificiale (AI) e il suo sottoinsieme, l’apprendimento automatico, svolgono oggi nel mercato azionario. Mentre l'intelligenza artificiale si riferisce a macchine in grado di eseguire compiti che

È impossibile ignorare il ruolo fondamentale che l’intelligenza artificiale (AI) e il suo sottoinsieme, l’apprendimento automatico, svolgono oggi nel mercato azionario.

Mentre l’intelligenza artificiale si riferisce a macchine in grado di eseguire attività che normalmente richiederebbero l’intelligenza umana, l’apprendimento automatico (ML) implica modelli di apprendimento dai dati, che migliorano la capacità delle macchine di fare previsioni e decisioni.

Uno dei modi principali in cui il mercato azionario utilizza l’apprendimento automatico è il trading algoritmico. I modelli ML riconoscono modelli da grandi quantità di dati finanziari, quindi effettuano operazioni basate su questi modelli: migliaia e migliaia di operazioni, in piccole frazioni di secondo. Questi modelli di trading algoritmico apprendono continuamente, adattando le loro previsioni e azioni in un processo che si verifica continuamente, che a volte può portare a fenomeni come i flash crash, quando determinati modelli innescano un ciclo di feedback, mandando alcuni segmenti del mercato in un’improvvisa caduta libera.

Il trading algoritmico, nonostante i suoi occasionali inconvenienti, è diventato indispensabile per il nostro sistema finanziario. Ha un vantaggio enorme; che è un altro modo per dire che ad alcune persone fa guadagnare un sacco di soldi. Secondo la società di servizi tecnologici Exadel, le banche riusciranno a risparmiare mille miliardi di dollari entro il 2030 grazie al trading algoritmico.

Tale affidamento ai modelli di machine learning in finanza non è tuttavia privo di rischi, rischi che vanno addirittura oltre i flash crash.

Una minaccia significativa e sottovalutata per questi sistemi è quella nota come attacchi avversari. Ciò si verifica quando attori malevoli manipolano i dati di input forniti al modello ML, inducendo il modello a fare previsioni errate.

Una forma di questo attacco contraddittorio è nota come “avvelenamento dei dati”, in cui i malintenzionati introducono “rumore” – o dati falsi – nell’input. L'addestramento su questi dati avvelenati può quindi causare la classificazione errata di interi set di dati da parte del modello. Ad esempio, un sistema di frode relativo alle carte di credito potrebbe attribuire erroneamente attività fraudolente laddove non ce n’è stata alcuna.

Tali manipolazioni non sono solo una minaccia teorica. Gli effetti dell’avvelenamento dei dati e degli attacchi avversari hanno ampie implicazioni in diverse applicazioni di machine learning, compresi i modelli di previsione finanziaria. In uno studio condotto da ricercatori dell’Università dell’Illinois, dell’IBM e di altre istituzioni, hanno dimostrato la vulnerabilità dei modelli di previsione finanziaria agli attacchi avversari. Secondo i loro risultati, questi attacchi potrebbero portare a decisioni commerciali non ottimali, con conseguenti perdite dal 23% al 32% per gli investitori. Questo studio evidenzia la potenziale gravità di queste minacce e sottolinea la necessità di difese robuste contro gli attacchi avversari.

La reazione del settore finanziario a questi attacchi è stata spesso reattiva: un gioco “colpisci la talpa” in cui le difese vengono sollevate solo dopo che si è verificato un attacco. Tuttavia, dato che queste minacce sono inerenti alla struttura stessa degli algoritmi ML, un approccio più proattivo è l’unico modo per affrontare in modo significativo questo problema in corso.

Le istituzioni finanziarie devono implementare metodi di test e valutazione robusti ed efficienti in grado di rilevare potenziali punti deboli e proteggersi da questi attacchi. Tale implementazione potrebbe comportare procedure di test rigorose, l'impiego di “red team” per simulare attacchi e l'aggiornamento continuo dei modelli per garantire che non vengano compromessi da attori malintenzionati o dati inadeguati.

Le conseguenze dell’ignorare il problema degli attacchi avversari nel trading algoritmico sono potenzialmente catastrofiche, da perdite finanziarie significative a danni alla reputazione delle aziende, o addirittura a diffuse perturbazioni economiche. In un mondo sempre più dipendente dai modelli di machine learning, il settore finanziario deve passare da reattivo a proattivo per garantire la sicurezza e l’integrità del nostro sistema finanziario.

Joshua Steier è un analista tecnico e Sai Prathyush Katragadda è un data scientist presso la RAND Corporation, organizzazione no-profit e apartitica.

Copyright 2023 Nexstar Media Inc. Tutti i diritti riservati. Questo materiale non può essere pubblicato, trasmesso, riscritto o ridistribuito.