Ik vind @jandotai echt heel leuk Het is een zeer vriendelijke app om lokaal LLM's te draaien, geweldig voor privacy Ik heb andere geprobeerd zoals LM Studio en Ollama en ze zijn leuk, maar heel technisch gebouwd, een beetje te moeilijk voor mij Jan is simpel en schattig en mooi en een geweldige alternatieve manier om te praten zonder je gegevens (en geheimen ;)) naar grote AI-providers te sturen Je kunt zelfs modellen van externe providers draaien via API, als je dat wilt! Ook zijn ze zeer responsief op feedback en altijd bezig met het verbeteren van de app Ik denk dat er ruimte is voor zowel lokaal draaiende LLM-apps als cloud LLM-apps, lokaal draaien is logisch als je over zeer privézaken wilt praten, therapie enz. Het is echt belangrijk dat mensen dat kunnen doen zonder te vrezen dat hun gegevens in de toekomst kunnen uitlekken (Ik ben niet verbonden of betaald, ik vind het gewoon echt leuk!)
👋 Jan
👋 Jan12 aug, 15:55
Introductie van Jan-v1: 4B model voor webzoekopdrachten, een open-source alternatief voor Perplexity Pro. In onze evaluaties levert Jan v1 91% SimpleQA-nauwkeurigheid, wat iets beter is dan Perplexity Pro, terwijl het volledig lokaal draait. Toepassingsgebieden: - Webzoekopdracht - Diepgaand onderzoek Gebouwd op de nieuwe versie van Qwen's Qwen3-4B-Thinking (tot 256k contextlengte), fijn afgestemd voor redeneren en het gebruik van tools in Jan. Je kunt het model draaien in Jan, llama.cpp of vLLM. Om zoeken in Jan in te schakelen, ga naar Instellingen → Experimentele functies → Aan, en vervolgens Instellingen → MCP-servers → schakel een zoekgerelateerde MCP in, zoals Serper. Gebruik het model: - Jan-v1-4B: - Jan-v1-4B-GGUF: Credits aan het @Alibaba_Qwen-team voor Qwen3 4B Thinking & @ggerganov voor llama.cpp.
218,38K