Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

0x 哆啦A梦
polymarket nieuwe tool---PolySeer is open source
Vanochtend heb ik het al geïntroduceerd, aangepast op basis van een open source project
Een diepgaande analysetool voor voorspellingsmarkten. Je plaatst een link van Polymarket of Kalshi en het systeem doorloopt automatisch een volledige onderzoeksprocedure, en geeft je uiteindelijk een gestructureerd analyseverslag.
De kernlogica is als volgt:
Er zijn 8 speciale AI-agenten gebruikt om dit te doen:
(je kunt er ook maar één gebruiken)
→ Planner: ontleedt het probleem, genereert een onderzoeksraamwerk, identificeert belangrijke variabelen en causale paden
→ Onderzoeker: bilateraal onderzoek, verzamelt tegelijkertijd ondersteunend en tegenbewijs (om bevestigingsbias te vermijden)
→ Criticus: betwijfelt bestaand bewijs, vindt hiaten en dataproblemen
→ Analist: aggregeert al het bewijs met behulp van de Bayesiaanse methode, berekent de waarschijnlijkheid
→ Reporter: genereert een begrijpelijke versie van het analyseverslag
Het hele proces bestaat uit 9 stappen:
1️⃣ Volledige marktgegevens verzamelen (prijzen, orderboeken, historische trends, handelsvolumes)
2️⃣ Analyseparameters optimaliseren (automatisch de meest geschikte tijdsgranulariteit en drijfveren selecteren)
3️⃣ Onderzoeksstrategie genereren (subclaims, belangrijke variabelen, zoekzaad)
4️⃣ Initiële bilaterale studie (verzamelt tegelijkertijd PRO- en CON-bewijs + aangrenzende signalen)
5️⃣ Kritische analyse (vindt hiaten, markeert duplicaten, identificeert datakwaliteitsproblemen)
6️⃣ Vervolggerichte studie (vult de eerder ontdekte blinde vlekken in)
7️⃣ Waarschijnlijkheid aggregatie (Bayesiaanse wiskunde, niet zomaar gokken)
8️⃣ Correlatiecorrectie (korting op soortgelijk bewijs, om dubbele telling te vermijden)
9️⃣ Eindrapport genereren
---
📊 Gegevensbronnen
Verbindt 4 lagen gegevens:
→ Academische laag: realtime onderzoeksdocumenten en academische publicaties
→ Netwerklaag: het laatste nieuws, analistencommentaar, sociale media
→ Marktlaag: financiële gegevens, on-chain gegevens, handelsignalen
→ Exclusieve laag: Valyu exclusieve datasets
Marktgegevens worden rechtstreeks van de officiële API van Polymarket en Kalshi gehaald:
→ Realtime prijzen en historische trends
→ Diepte van het orderboek
→ Handelsrecords
→ Slimme analyse van multi-kandidaat evenementen (zoals verkiezingen)
---
📐 Bewijskwaliteitssysteem
Niet alle informatie is even betrouwbaar, er is een 4-niveau classificatie gebruikt:
A-niveau: primaire bronnen (officiële documenten, regelgevende rapportages, originele teksten van persconferenties) → gewicht limiet 1.0
B-niveau: hoge kwaliteit secundair (Reuters, Bloomberg, WSJ, expertanalyses) → gewicht limiet 0.6
C-niveau: standaard secundair (geciteerde nieuws, vakmedia) → gewicht limiet 0.3
D-niveau: zwak bewijs (sociale media, ongeverifieerde beweringen, geruchten) → gewicht limiet 0.2
Het uiteindelijke gewicht van elk bewijs = type limiet × (verifieerbaarheid × 0.45 + kruisvalidatie × 0.25 + consistentie × 0.15 + actualiteit × 0.15)
---
📈 Waarschijnlijkheidsberekening
Gebruikt standaard Bayesiaanse update:
logit(nieuwe waarschijnlijkheid) = logit(voorafgaand) + Σ logLR
Het voorafgaande is de huidige marktprijs, logLR is de log-likelihood ratio van elk bewijs.
Bewijzen binnen dezelfde cluster krijgen een correlatiekorting:
Effectieve steekproefgrootte = n / (1 + (n-1) × ρ)
ρ is standaard 0.6, wat betekent dat hoe meer soortgelijk bewijs, hoe kleiner de marginale bijdrage.
Uiteindelijk worden er twee waarschijnlijkheden weergegeven:
→ pNeutral: puur bewijsafleiding, zonder naar de markt te kijken
→ pAware: waarschijnlijkheid na het mengen van marktprijzen
---
Categoriegeschiktheidsanalyse na metingen
| Politiek/verkiezingen | ⭐⭐⭐⭐⭐
Veel nieuwsberichten, verifieerbare peilingen, rijke historische precedenten, duidelijke tijdslijn
| Geopolitiek | ⭐⭐⭐⭐⭐
Veel officiële verklaringen, rijke expertanalyses, gebeurtenissen zijn te volgen
| Sportevenementen | ⭐⭐⭐⭐
Volledige statistische gegevens, veel historische confrontaties, maar realtime informatie zoals blessures is moeilijk te vangen
| Macro-economische indicatoren | ⭐⭐⭐⭐
Officiële gegevens, veel professionele analyses, maar betreft complexe modellen
| Technologie/productlanceringen | ⭐⭐⭐
Er zijn lekken, voorspellingen van analisten, maar interne informatie is niet transparant
| Entertainment/prijzen | ⭐⭐⭐
Er zijn historische patronen (zoals de Oscars), maar subjectiviteit is sterk
| Nieuwe cryptocurrency's | ⭐⭐
Informatie is gefragmenteerd, veel ruis, gebrek aan betrouwbare fundamenten
| Korte termijn prijsvoorspellingen | ⭐
Markt is zeer willekeurig, moeilijk om voordeel te behalen uit openbare informatie
---
🛠 Hoe te gebruiken
De eenvoudigste manier:
1. Open Polyseer
2. Plak een link van een Polymarket of Kalshi-markt
3. Wacht 2-3 minuten
4. Bekijk het rapport
Het rapport vertelt je:
→ Huidige marktprijs vs onze geschatte waarschijnlijkheid
→ Belangrijkste ondersteunende en tegenbewijs
→ Sleutel drijfveren en risicopunten
→ Vertrouwensbeoordeling
Je kunt deze informatie gebruiken:
→ Bepalen of de markt verkeerd geprijsd is
→ Begrijpen van de redenen achter prijsveranderingen
→ Informatie identificeren die de markt nog niet heeft ingeprijsd
→ Je eigen in- en uitstaplogica instellen
Het zal je niet vertellen om "te kopen" of "te verkopen", die beslissing is aan jou. Wij bieden alleen onderzoek, geen beleggingsadvies.
Eigenlijk is er niet veel veranderd, ik heb een paar nutteloze dingen verwijderd, het is in het Nederlands vertaald, de AI-uitvoer is ook in het Chinees; de kernfunctionaliteit blijft hetzelfde.
Ik wilde het oorspronkelijk op Vercel implementeren zodat iedereen het direct kan gebruiken, maar de productarchitectuur draait niet stabiel op Vercel, en ik wil geen geld uitgeven aan servers, dus heb ik het gewoon open source gemaakt; iedereen moet zelf de AI API configureren, verder is er niet veel meer.

87
Het is echt geweldig
Ik was net een open-source bibliotheek aan het testen
(het is de pm open-source follow bot die in de top paar op GitHub staat)
Het is een goed product, met honderden sterren
Maar er is een service in het script
Die .env uitlekt (de plek waar de privésleutels worden opgeslagen)
Geweldig
Deze dev heeft waarschijnlijk duizenden privésleutels in handen
Als hij eenmaal genoeg heeft, haalt hij ze eruit
Maar aan de andere kant moet je zeggen
Dat zijn product zeker niet slecht is
Niemand is een idioot
In het begin test je met kleine bedragen
Langzaam, als het goed gaat en het geweldig is
Wordt het groot geld
En dan ontdek je ineens
Dat het geld weg is
Ik heb het toch aangepast en gebruikt
Omdat het iets lichter is, geschikt voor aanpassingen
Maar ik ga het niet openbaar maken.
155
VibeCoding nieuwe tool lancering---VibeSkill is uitgerold
De door ingenieurs van Anthropic open-source gemaakte Skills-specificatie - een set van beperkingen die AI in staat stelt om "expert-niveau" in plaats van "algemeen-niveau" inhoud te genereren.
Gebaseerd op de officiële Claude Code publicatie, de waarde spreekt voor zich.
Na het bestuderen van deze specificatie ontdekte ik dat dit ding inderdaad nuttig is, maar er is een probleem: de drempel is te hoog. Je moet YAML-metadata begrijpen, honderden regels Markdown-beperkingen schrijven, en zelf de aanroepketen opzetten. Voor de meeste mensen is dit niet haalbaar.
Dus heb ik VsbeSkill gemaakt: het productiseren van de Anthropic Skills-specificatie, zodat iedereen gebruik kan maken van expert-niveau AI-beperkingen, zonder technische kennis.
2️⃣ Productoverzicht
【Kerngegevens】
• Totaal aantal vaardigheden: 16 (volledig gesynchroniseerd met de officiële Anthropic repository)
• Vaardigheidscategorieën: 5 ontwikkeltools / 6 kantoortools / 5 creatieve tools
• Hoog gedifferentieerde vaardigheden: 9 (duidelijke kwaliteitsverbetering ten opzichte van gewone AI)
• Gemiddelde promptlengte: 800+ tokens (vs gewone prompts 50-100 tokens)
• Omdat je AI moet gebruiken, moet je betalen, dus dit product geeft bij registratie 60 punten cadeau, goed voor 3-6 keer gebruik, daarna moet je bijladen;
【Overzicht van de 16 vaardigheden】
🛠 Ontwikkeltools
• Front-end ontwerp - Geen paarse vervaging, echte ontwerpgevoelige interfaces genereren (hoog gedifferentieerd)
• MCP serverconstructie - Vier-fasen proces voor het bouwen van Claude plugins (hoog gedifferentieerd)
• Vaardighedenmaker - Maak je eigen Claude Skills-pakket (hoog gedifferentieerd)
• Webproductconstructie - Genereer een deelbare React-app in één bestand (hoog gedifferentieerd)
• Webapplicatietests - Genereren van Playwright automatiseringstest scripts
📂 Kantoortools
• Word documentverwerking - Ondersteunt het volgen van revisies, markeert alleen daadwerkelijke wijzigingen
• Excel spreadsheets - Investment bank-niveau kleurcodering, geen formulefouten (hoog gedifferentieerd)
• PDF verwerking - Samenvoegen, splitsen, tabelextractie, batchverwerking
• PowerPoint presentaties - Automatische kleurselectie op basis van de industrie, geen standaard sjablonen (hoog gedifferentieerd)
• Document samenwerking - Driefasenraamwerk: verzamelen → verfijnen → testen (hoog gedifferentieerd)
• Interne communicatie - 3P-updates, wekelijkse rapporten, incidentrapporten en andere gestandaardiseerde output
🎨 Creatieve tools
• Algoritmische kunst - Schrijf eerst een filosofische verklaring, en gebruik dan p5.js om het uit te drukken (hoog gedifferentieerd)
• Canvasontwerp - Museum-/tijdschrift-niveau visueel ontwerp (hoog gedifferentieerd)
• Merkrichtlijnen - Toepassen van merkvisuele standaarden in bulk
• Themafabriek - 10 professionele vooraf ingestelde thema's om uit te kiezen
• Slack GIF-creatie - Geoptimaliseerde afmetingen en framerates voor Slack
【Prijsmodel】
💰 1 USDT = 1000 punten
Vaardigheidsverbruik (op basis van complexiteit):
- Eenvoudige vaardigheden: 10+ punten/keer (interne communicatie, enz.)
- Gemiddelde vaardigheden: 20+ punten/keer (documentverwerking, enz.)
- Complexe vaardigheden: 40+ punten/keer (front-end ontwerp, PPT, enz.)
- Geavanceerde vaardigheden: 80+ punten/keer (MCP-constructie, enz.)
Werkelijk verbruik = basispunten + outputlengte bonus (elke 500 tokens +5 punten)
Minimale bijlading 6 USDT, kan lang meegaan.
———————————————
3️⃣ Gebruiksaanwijzing
1. Bekijk eerst de beste praktijken: elke vaardigheidsdetailpagina heeft beschrijvingen van "het meest geschikt" en "niet zo geschikt" scenario's, de juiste scenario's kiezen maakt een groot verschil
2. Bied voldoende context: de voordelen van Skills liggen in "begrijpen voordat je creëert", hoe gedetailleerder de invoer, hoe beter
3. Gebruik bij voorkeur hoog gedifferentieerde vaardigheden: vaardigheden gemarkeerd als "hoog gedifferentieerd" hebben de meest duidelijke verbetering ten opzichte van gewone AI
4. Combinatiegebruik: front-end ontwerp -> canvasontwerp -> document samenwerking, een combinatie-aanpak
———————————————
4️⃣ Tot slot
Dit project heeft van idee tot lancering ongeveer 3 uur gekost, de code is vrij ruw, maar de kernfunctionaliteiten werken.
Als je het probeert en het waardevol vindt, ben je welkom om bij te laden ter ondersteuning. Als je vindt dat er iets niet goed werkt, neem dan rechtstreeks contact met me op via Telegram om te klagen, ik zal proberen te verbeteren waar mogelijk.
De motivatie om dit project te maken is heel eenvoudig: ik heb het zelf nodig en deel het ook met anderen die het nodig hebben.




228
Boven
Positie
Favorieten
