KI auf dem Mac Lokale KI · keine Ausreden

Alle Artikel

6
  1. LM Studio vs. Ollama — Welches Tool für Apple Silicon?

    Praktischer Vergleich von LM Studio und Ollama für Mac-Nutzer mit lokalen LLMs auf Apple Silicon. Installation, Features, Performance und die beste Wahl für deinen Workflow.

  2. Mac Mini M4 als KI-Server — lohnt sich das?

    Kosten, Benchmarks und ehrliche Einschätzung: Lohnt sich der Mac Mini M4 als lokaler KI-Server?

  3. Mac Mini M4 as an AI Server — Is It Worth It?

  4. Ollama auf dem Mac Mini M4 einrichten — Schritt für Schritt

    In dieser Anleitung erfährst du, wie du Ollama auf dem Mac Mini M4 installierst, konfigurierst und dein erstes lokales KI-Modell zum Laufen bringst.

  5. Setting Up Ollama on Mac Mini M4 — Your Local AI Assistant

Über
diesen
Blog

Ein Tech-Blog über lokale KI auf Apple Silicon Macs. Ich teste Modelle, vergleiche Tools und schreibe Anleitungen — ohne Marketing-Sprech, ohne Buzzwords.

Ehrlich über das, was funktioniert — und was nicht. Keine Cloud, keine Abhängigkeit.

Fokus
  • Ollama
  • LM Studio
  • MLX
  • llama.cpp
  • Apple Silicon M1–M4