May 26, 2023
AI Eye: 25.000 trader scommettono sulle scelte di azioni di ChatGPT, l'intelligenza artificiale fa schifo ai lanci di dadi e altro ancora
Almost 25,000 investors have signed up to trade alongside ChatGPT as they follow
Quasi 25.000 investitori si sono iscritti per fare trading insieme a ChatGPT mentre seguono l'esperimento GPT Portfolio della società di copy trading Autopilot.
I trader hanno scommesso un totale di 14,7 milioni di dollari sulle scelte di azioni dell'AI, che avrebbero una media di circa 600 dollari ciascuno se tutti investessero dopo la registrazione. Sperano di ottenere anche una piccola fetta del presunto rendimento del 500% da una delle strategie testate nella ricerca accademica.
Il portafoglio GPT consente all'intelligenza artificiale di analizzare 10.000 articoli di notizie e 100 rapporti aziendali per selezionare 20 azioni per il portafoglio da $ 50.000, aggiornato ogni settimana. Le scelte iniziali includevano Berkshire Hathaway, Amazon, DR Horton e Davita Health. Dopo due settimane, il portafoglio è cresciuto di circa il 2%, che è più o meno lo stesso del mercato azionario.
È interessante notare che le ultime cinque scelte hanno perso di più in termini percentuali rispetto alle prime cinque guadagnate: Dollar Tree ha perso il 17% dopo aver mancato i guadagni, quindi in futuro potrebbe essere più sensato investire solo nelle migliori cinque o dieci idee di GPT-4, ma non vedremo come funziona.
L'account ChatGPT Crypto Trader su scala ridotta sta modificando una strategia simile che riceve i consigli di GPT-4 su quando andare long su Ethereum. Dice che mostra un profitto dell'11.000% rispetto ad agosto 2017, ma nell'esperimento nel mondo reale da gennaio, il portafoglio è aumentato di un terzo, mentre il prezzo di Ethereum ha guadagnato il 60%.
Tuttavia, vale la pena fare attenzione all'utilizzo dell'intelligenza artificiale per il trading. La piattaforma di derivati crittografici Bitget ha recentemente abbandonato il suo esperimento di utilizzo dell'intelligenza artificiale sulla piattaforma a causa del rischio di disinformazione. Un sondaggio tra i suoi utenti ha rilevato che l’80% degli utenti ha avuto un’esperienza negativa con l’intelligenza artificiale, inclusi falsi consigli sugli investimenti e altra disinformazione.
L'amministratore delegato di Bitget, Gracy Chen, afferma:
"Gli strumenti di intelligenza artificiale, sebbene robusti e pieni di risorse, mancano del tocco umano necessario per interpretare accuratamente le sfumature e le tendenze del mercato."
Ci sono due estremi quando si tratta di pensare a modelli linguistici di grandi dimensioni come GPT-4: alcune persone sostengono che siano stupidi robot che spiegano con sicurezza informazioni false, mentre altri credono che porteranno a un’intelligenza artificiale generale (equivalente o migliore dell’intelligenza umana ). I ricercatori di Microsoft hanno pubblicato a marzo un articolo di 155 pagine intitolato "Sparks of General Intelligence", sostenendo che era proprio quest'ultimo il caso, apparentemente molto colpiti dal fatto che il GPT fosse abbastanza intelligente da capire come impilare un libro, nove uova e un laptop uno sopra l'altro.
Demis Hassabis, co-fondatore di DeepMind, ritiene che il ritmo dei progressi sia destinato a continuare, il che significa che potremmo essere a "pochi anni, forse un decennio" dall'AGI. Ma il ricercatore di robotica ed esperto di intelligenza artificiale Rodney Brooks sostiene che modelli linguistici di grandi dimensioni come ChatGPT non porteranno all’AGI. Dice che non capiscono nulla e non possono dedurre logicamente il significato.
"Ciò in cui i grandi modelli linguistici sono bravi è dire come dovrebbe suonare una risposta, che è diverso da come dovrebbe essere una risposta."
Un altro scettico è lo scrittore di intelligenza artificiale Brian Chau, che sta scrivendo una serie in tre parti intitolata "Diminishing return in machine learning". Sostiene che lo sviluppo dell’intelligenza artificiale si sta scontrando con le limitazioni dell’hardware e con i costi eccessivi dell’addestramento di modelli più grandi e sta iniziando a rallentare. Secondo lui le possibilità di un AGI saranno inferiori al 5% entro il 2043
Un'attività che va oltre ChatGPT è lanciare un dado e darti un numero casuale. Chiedigli di farlo e otterrà invariabilmente un quattro al primo tentativo. Chiedigli un numero compreso tra uno e 10 e ne sceglierà sette. Chiedigli un numero compreso tra uno e 30 e ne sceglierà 17. (Bard è analogamente non casuale) Un Redditor è riuscito a lanciare un dado 50 volte, con il bot che restituisce "31 quattro, 12 tre, 4 sei, 3 cinque , e nessuno o due." Ciò che sembra accadere è che i numeri "casuali" che produce sono quelli che appaiono più frequentemente nei suoi dati di addestramento, perché anche gli esseri umani scelgono quegli stessi numeri casuali più spesso. In effetti, il fenomeno delle persone che scelgono sette quando viene loro chiesto di scegliere un numero compreso tra uno e 10 è così noto che è persino un trucco magico/tecnica di raccolta che l'autore di The Game Neil Strauss ha utilizzato per impressionare Britney Spears quando ha "indovinato" correttamente "un numero che aveva scelto.