Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Tänk inte på LLM:er som entiteter utan som simulatorer. Till exempel, när du utforskar ett ämne, fråga inte:
"Vad tycker du om xyz"?
Det finns inget "du". Nästa gång försök:
"Vilken grupp människor skulle vara bra att utforska xyz? Vad skulle de säga?"
LLM:n kan kanalisera/simulera många perspektiv men den har inte "tänkt på" xyz på ett tag och över tid och bildat egna åsikter på det sätt vi är vana vid. Om du tvingar det genom att använda "du" kommer det att ge dig något genom att anta en personlighetsinbäddningsvektor som antyds av statistiken i dess finjusteringsdata och sedan simulera det. Det är okej att göra, men det finns mycket mindre mystik i det än vad jag tror folk naivt tillskriver "att fråga en AI".
Topp
Rankning
Favoriter
