Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Andrej Karpathy
Costruire @EurekaLabsAI. In precedenza Direttore di AI @ Tesla, team fondatore @ OpenAI, CS231n/PhD @ Stanford. Mi piace addestrare grandi reti neurali profonde.
Ieri ho provato Gemini 3 tramite accesso anticipato. Alcune considerazioni -
Innanzitutto, di solito consiglio cautela con i benchmark pubblici perché, secondo me, possono essere facilmente manipolabili. Dipende dalla disciplina e dall'autocontrollo del team (che nel frattempo è fortemente incentivato a fare altrimenti) per non sovradattare i set di test tramite elaborate acrobazie su dati adiacenti al set di test nello spazio di embedding dei documenti. Realisticamente, poiché tutti gli altri lo fanno, la pressione per farlo è alta.
Parla con il modello. Parla con gli altri modelli (Cavalca il ciclo LLM - usa un LLM diverso ogni giorno). Ieri ho avuto una prima impressione positiva riguardo alla personalità, alla scrittura, al coding del vibe, all'umorismo, ecc., un potenziale molto solido come driver quotidiano, chiaramente un LLM di livello 1, congratulazioni al team!
Nei prossimi giorni/settimane, sono molto curioso e in attesa di un ensemble su valutazioni private, che molte persone/organizzazioni sembrano ora costruire per conto proprio e occasionalmente riportare qui.
257,08K
Sto iniziando a prendere l'abitudine di leggere tutto (blog, articoli, capitoli di libri,…) con gli LLM. Di solito, il primo passaggio è manuale, poi il secondo "spiega/sintetizza", il terzo domande e risposte. Di solito finisco con una comprensione migliore/più profonda rispetto a se fossi andato avanti. Sta diventando uno dei principali casi d'uso.
D'altra parte, se sei uno scrittore che cerca di spiegare/comunicare qualcosa, potremmo vedere sempre meno una mentalità di "sto scrivendo questo per un altro essere umano" e più "sto scrivendo questo per un LLM". Perché una volta che un LLM "capisce", può quindi mirare, personalizzare e servire l'idea al suo utente.
666,23K
Condivido una conversazione recente interessante sull'impatto dell'AI sull'economia.
L'AI è stata paragonata a vari precedenti storici: elettricità, rivoluzione industriale, ecc., penso che l'analogia più forte sia quella dell'AI come un nuovo paradigma di calcolo (Software 2.0) perché entrambi riguardano fondamentalmente l'automazione dell'elaborazione delle informazioni digitali.
Se dovessi prevedere l'impatto del calcolo sul mercato del lavoro negli anni '80, la caratteristica più predittiva di un compito/lavoro che considereresti è fino a che punto l'algoritmo di esso è fisso, cioè stai semplicemente trasformando meccanicamente le informazioni secondo regole facili da specificare (ad es. digitazione, contabilità, calcolatori umani, ecc.)? All'epoca, questa era la classe di programmi che la capacità di calcolo di quell'epoca ci permetteva di scrivere (a mano, manualmente).
Con l'AI ora, siamo in grado di scrivere nuovi programmi che non avremmo mai potuto scrivere a mano prima. Lo facciamo specificando obiettivi (ad es. accuratezza di classificazione, funzioni di ricompensa), e cerchiamo nello spazio dei programmi tramite discesa del gradiente per trovare reti neurali che funzionano bene rispetto a quell'obiettivo. Questo è il mio post sul blog di Software 2.0 di un po' di tempo fa. In questo nuovo paradigma di programmazione, quindi, la nuova caratteristica più predittiva da considerare è la verificabilità. Se un compito/lavoro è verificabile, allora è ottimizzabile direttamente o tramite apprendimento per rinforzo, e una rete neurale può essere addestrata per funzionare estremamente bene. Riguarda fino a che punto un'AI può "praticare" qualcosa. L'ambiente deve essere ripristinabile (puoi iniziare un nuovo tentativo), efficiente (possono essere fatti molti tentativi) e premiabile (c'è qualche processo automatizzato per premiare qualsiasi tentativo specifico che è stato fatto).
Più un compito/lavoro è verificabile, più è suscettibile all'automazione nel nuovo paradigma di programmazione. Se non è verificabile, deve cadere nella magia della generalizzazione delle reti neurali, incrociando le dita, o tramite mezzi più deboli come l'imitazione. Questo è ciò che guida il confine "frastagliato" del progresso nei LLM. I compiti che sono verificabili progrediscono rapidamente, inclusi possibilmente oltre la capacità dei migliori esperti (ad es. matematica, codice, quantità di tempo trascorso a guardare video, qualsiasi cosa che assomigli a puzzle con risposte corrette), mentre molti altri rimangono indietro in confronto (creativi, strategici, compiti che combinano conoscenze del mondo reale, stato, contesto e buon senso).
Il Software 1.0 automatizza facilmente ciò che puoi specificare.
Il Software 2.0 automatizza facilmente ciò che puoi verificare.
1,9M
Principali
Ranking
Preferiti

