<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Blog on Handy Intelligence</title><link>https://handyintelligence.com/de/blog/</link><description>Recent content in Blog on Handy Intelligence</description><generator>Hugo</generator><language>de</language><copyright>conflict.industries digital GmbH</copyright><lastBuildDate>Mon, 09 Feb 2026 00:00:00 +0000</lastBuildDate><atom:link href="https://handyintelligence.com/de/blog/index.xml" rel="self" type="application/rss+xml"/><item><title>Komponenten als Wissensobjekte: RAG statt Prompt-Monolith</title><link>https://handyintelligence.com/de/blog/component-rag/</link><pubDate>Mon, 09 Feb 2026 00:00:00 +0000</pubDate><guid>https://handyintelligence.com/de/blog/component-rag/</guid><description>&lt;p>Wer schon mal versucht hat, ein komplexes UI- oder System-Setup in einen Agenten-Workflow zu pressen, kennt das Problem: Entweder du packst riesige Komponenten-Textsammlungen in den Kontext — oder der Agent rät. Beides endet selten gut.&lt;/p>
&lt;p>Ein praktischer Ausweg: Komponenten (Frontend-Komponenten, Services, Module, sogar ganze Feature-Slices) nicht als &amp;ldquo;Textwüste&amp;rdquo; in Prompts zu tragen, sondern als Wissensobjekte in eine RAG-Datenbank zu legen — und sie gezielt per Tool abzurufen.&lt;/p>
&lt;p>Der Trick ist die Granularität: Statt &amp;ldquo;hier ist unser gesamtes Design System&amp;rdquo;, speicherst du pro Komponente das, was wirklich gebraucht wird: Zweck, Props/Inputs, Zustände, Events, Abhängigkeiten, API-Verträge, Beispiele, Do&amp;rsquo;s/Don&amp;rsquo;ts. Zusätzlich Metadaten wie Version, Ownership, Pfade, Tags (z. B. &amp;ldquo;checkout&amp;rdquo;, &amp;ldquo;accessibility&amp;rdquo;, &amp;ldquo;mobile&amp;rdquo;).&lt;/p></description></item><item><title>0,5 ExaFLOPS: Was die Telekom-Anlage wirklich für KI-Training bedeutet</title><link>https://handyintelligence.com/de/blog/telekom-exaflops/</link><pubDate>Thu, 05 Feb 2026 00:00:00 +0000</pubDate><guid>https://handyintelligence.com/de/blog/telekom-exaflops/</guid><description>&lt;p>0,5 ExaFLOPS sind eine starke Zahl – aber erst die Präzision dahinter entscheidet, ob daraus „KI-Autonomie in Monaten&amp;quot; oder „in Jahren&amp;quot; wird.&lt;/p>
&lt;h2 id="die-telekom-industrial-ai-cloud">Die Telekom Industrial AI Cloud&lt;/h2>
&lt;p>Die Telekom hat in München (Tucherpark) ihre Industrial AI Cloud gestartet: ~10.000 NVIDIA Blackwell GPUs (DGX B200 + RTX PRO Server) und „bis zu 0,5 ExaFLOPS&amp;quot;, betrieben unter deutschen Anforderungen an Datenschutz, Sicherheit und Verfügbarkeit.&lt;/p>
&lt;h2 id="die-entscheidende-deutung">Die entscheidende Deutung&lt;/h2>
&lt;p>Diese 0,5 ExaFLOPS sind sehr plausibel FP64 (HPC-Metrik). Für eine B200 werden grob ~37–40 TFLOPS FP64 angegeben; mal 10.000 landet man genau in der Größenordnung 0,4–0,5 EFLOPS.&lt;/p></description></item><item><title>AWS vs. Hetzner in 60 Sekunden: Compute ist selten das Problem</title><link>https://handyintelligence.com/de/blog/aws-vs-hetzner/</link><pubDate>Thu, 05 Feb 2026 00:00:00 +0000</pubDate><guid>https://handyintelligence.com/de/blog/aws-vs-hetzner/</guid><description>&lt;p>AWS vs. Hetzner in 60 Sekunden: Compute ist selten das Problem – Egress schon.&lt;/p>
&lt;h2 id="setup">Setup&lt;/h2>
&lt;p>Für Vergleichbarkeit: 24/7 (~730 h/Monat), Small/Medium/Large (2/4/8 vCPU mit 4/16/32 GB RAM).&lt;/p>
&lt;ul>
&lt;li>&lt;strong>AWS-Beispiele:&lt;/strong> t3.medium, m6i.xlarge, m6i.2xlarge&lt;/li>
&lt;li>&lt;strong>Hetzner:&lt;/strong> CX22, CCX23, CCX33&lt;/li>
&lt;/ul>
&lt;h2 id="-nur-compute-1-vmnode-247">🔹 Nur Compute (1 VM/Node, 24/7)&lt;/h2>
&lt;table>
 &lt;thead>
 &lt;tr>
 &lt;th>Größe&lt;/th>
 &lt;th>AWS EC2/ECS&lt;/th>
 &lt;th>AWS EKS (inkl. Cluster-Fee)&lt;/th>
 &lt;th>Hetzner&lt;/th>
 &lt;/tr>
 &lt;/thead>
 &lt;tbody>
 &lt;tr>
 &lt;td>Small&lt;/td>
 &lt;td>~$30/Monat&lt;/td>
 &lt;td>~$103&lt;/td>
 &lt;td>€3,79&lt;/td>
 &lt;/tr>
 &lt;tr>
 &lt;td>Medium&lt;/td>
 &lt;td>~$140&lt;/td>
 &lt;td>~$213&lt;/td>
 &lt;td>€24,49&lt;/td>
 &lt;/tr>
 &lt;tr>
 &lt;td>Large&lt;/td>
 &lt;td>~$280&lt;/td>
 &lt;td>~$353&lt;/td>
 &lt;td>€39,90&lt;/td>
 &lt;/tr>
 &lt;/tbody>
&lt;/table>
&lt;h2 id="-mini-k8s-1-cluster--2-worker-medium">🔹 „Mini-K8s&amp;quot; (1 Cluster + 2 Worker, Medium)&lt;/h2>
&lt;ul>
&lt;li>&lt;strong>AWS EKS:&lt;/strong> 2×$140 + $73 ≈ &lt;strong>$353/Monat&lt;/strong> (compute-only)&lt;/li>
&lt;li>&lt;strong>Hetzner:&lt;/strong> 2×€24,49 ≈ &lt;strong>€48,98/Monat&lt;/strong>&lt;/li>
&lt;/ul>
&lt;h2 id="-der-echte-punch-trafficegress">🔹 Der echte Punch: Traffic/Egress&lt;/h2>
&lt;ul>
&lt;li>&lt;strong>AWS:&lt;/strong> grob $0,09/GB → 1 TB ≈ $92, 10 TB ≈ $922, 25 TB ≈ $2.304&lt;/li>
&lt;li>&lt;strong>Hetzner EU:&lt;/strong> 20 TB inkl., danach ~€1/TB → bei 25 TB: ~€5 extra&lt;/li>
&lt;/ul>
&lt;h2 id="kubernetes-ist-nicht-nur-eks-oder-nichts">Kubernetes ist nicht nur „EKS oder nichts&amp;quot;&lt;/h2>
&lt;p>Und ja: Auf günstigen VMs ist es oft erstaunlich schnell aufgesetzt – z. B. mit &lt;strong>k3s&lt;/strong> oder &lt;strong>RKE2&lt;/strong>. Und wenn man gar kein „Full-K8s&amp;quot; braucht, kann man mit der Cloud API viele einfache Lösungen sogar direkter bauen (Provisioning, Scaling, Automatisierung) – ohne direkt den ganzen Kubernetes-Overhead mitzunehmen.&lt;/p></description></item><item><title>Der Browser als sichere Compute-Sandbox für IoT-Geräte</title><link>https://handyintelligence.com/de/blog/browser-compute-sandbox/</link><pubDate>Thu, 05 Feb 2026 00:00:00 +0000</pubDate><guid>https://handyintelligence.com/de/blog/browser-compute-sandbox/</guid><description>&lt;p>Man kann den Browser auch als „sichere Compute-Sandbox&amp;quot; für ein IoT-Gerät sehen, das selbst keine KI stemmen kann.&lt;/p>
&lt;h2 id="die-idee">Die Idee&lt;/h2>
&lt;p>Das Device spricht nur per HTTP mit einer lokalen Web-App. Die KI läuft per WebGPU auf dem PC des Users im Browser – und übernimmt dort alles, was auf dem Gerät zu schwer wäre.&lt;/p>
&lt;h2 id="der-browser-als-embedded-extension">Der Browser als „Embedded Extension&amp;quot;&lt;/h2>
&lt;p>Damit wird der Browser quasi zur „Embedded Extension&amp;quot; des Geräts:&lt;/p>
&lt;ul>
&lt;li>🔹 &lt;strong>Device liefert Logs/Status/Config&lt;/strong> an die lokale Web-App (HTTP)&lt;/li>
&lt;li>🔹 &lt;strong>KI analysiert das direkt am PC&lt;/strong> (WebGPU)&lt;/li>
&lt;li>🔹 &lt;strong>Ergebnis geht als Config/Commands&lt;/strong> wieder zurück ans Device (HTTP)&lt;/li>
&lt;li>🔹 &lt;strong>Nach außen idealerweise nur Modell-Download/Updates&lt;/strong> – kein Log-Upload&lt;/li>
&lt;/ul>
&lt;h2 id="warum-das-spannend-ist">Warum das spannend ist&lt;/h2>
&lt;p>Das ist ein spannender Architektur-Trick: Man bekommt „smarte&amp;quot; Diagnose und Konfiguration, ohne das IoT-Gerät aufzublähen und ohne ein Backend bauen zu müssen, das sensible Betriebsdaten sieht.&lt;/p></description></item><item><title>n8n Lizenz-Risiko: Warum „Open Source" nicht „frei für alles" heißt</title><link>https://handyintelligence.com/de/blog/n8n-lizenz-risiko/</link><pubDate>Thu, 05 Feb 2026 00:00:00 +0000</pubDate><guid>https://handyintelligence.com/de/blog/n8n-lizenz-risiko/</guid><description>&lt;p>Viele Teams behandeln n8n wie „Open Source = frei für alles&amp;quot;. Genau da beginnt das Lizenz-Risiko.&lt;/p>
&lt;h2 id="die-sustainable-use-license">Die Sustainable Use License&lt;/h2>
&lt;p>n8n steht (für die freie Self-Hosted Community Edition) unter der &lt;strong>Sustainable Use License&lt;/strong>. Die ist bewusst so gebaut, dass man n8n intern nutzen, anpassen und betreiben kann – aber nicht einfach als eigenes Produkt/Service weiterverkaufen. „White-labeln&amp;quot;, „hosten und Kunden dafür bezahlen lassen&amp;quot; oder ein Angebot, dessen Kernwert aus n8n besteht, ist damit ausdrücklich ausgeschlossen.&lt;/p></description></item><item><title>Tokens vs. Embeddings: Zwei komplett verschiedene Dinge</title><link>https://handyintelligence.com/de/blog/tokens-vs-embeddings/</link><pubDate>Wed, 04 Feb 2026 00:00:00 +0000</pubDate><guid>https://handyintelligence.com/de/blog/tokens-vs-embeddings/</guid><description>&lt;h1 id="tokens-vs-embeddings-zwei-komplett-verschiedene-dinge">Tokens vs. Embeddings: Zwei komplett verschiedene Dinge&lt;/h1>
&lt;p>Viele sprechen über Tokens und Embeddings – und meinen dabei oft „irgendwas mit KI&amp;quot;. Dabei sind es zwei komplett unterschiedliche Dinge.&lt;/p>
&lt;h2 id="-tokens-die-text-bausteine">🔢 Tokens: Die Text-Bausteine&lt;/h2>
&lt;p>Tokens sind die Text-Bausteine, mit denen ein Modell arbeitet. Ein Satz wird in kleine Einheiten zerlegt (Wortteile, Wörter, Zeichen). Je mehr Text, desto mehr Tokens. &lt;strong>Tokens sind also eine Zählgröße für Input/Output.&lt;/strong>&lt;/p>
&lt;h2 id="-embeddings-die-bedeutungs-repräsentation">🧭 Embeddings: Die Bedeutungs-Repräsentation&lt;/h2>
&lt;p>Embeddings sind dagegen eine &lt;strong>Bedeutungs-Repräsentation&lt;/strong> von Text als Zahlenvektor. Stell dir vor: Aus „Hund&amp;quot; wird nicht „4 Tokens&amp;quot;, sondern ein Pfeil im Bedeutungsraum, der „Hund&amp;quot; nah an „Welpe&amp;quot;, „Tier&amp;quot; und weiter weg von „Steuerbescheid&amp;quot; platziert.&lt;/p></description></item><item><title>🔐 KI-Sicherheit: Wenn aus 5% Fehler plötzlich 40% Müll wird</title><link>https://handyintelligence.com/de/blog/ki-sicherheit-pipeline/</link><pubDate>Tue, 03 Feb 2026 00:00:00 +0000</pubDate><guid>https://handyintelligence.com/de/blog/ki-sicherheit-pipeline/</guid><description>&lt;h1 id="-ki-sicherheit-wenn-aus-5-fehler-plötzlich-40-müll-wird">🔐 KI-Sicherheit: Wenn aus 5% Fehler plötzlich 40% Müll wird&amp;hellip;&lt;/h1>
&lt;p>Künstliche Intelligenz ist beeindruckend. Sie schreibt Texte, generiert Bilder, hilft beim Coden. Aber was passiert, wenn die KI sich selbst trainiert, evaluiert – und am Ende auch noch ihren eigenen Workflow baut?&lt;/p>
&lt;p>💡 &lt;strong>Spoiler:&lt;/strong> Dann hast du bald keinen Workflow mehr. Sondern ein Kartenhaus.&lt;/p>
&lt;h2 id="-das-problem-ki-baut-auf-ihren-eigenen-fehlern-auf">👉 Das Problem: KI baut auf ihren eigenen Fehlern auf&lt;/h2>
&lt;p>Viele Tools wie Clawdbot versprechen, deine komplette Content- oder Datenpipeline per KI zu automatisieren. Klingt effizient – aber wer prüft eigentlich, ob die KI nicht mit ihren eigenen Fehlern arbeitet?&lt;/p></description></item><item><title>Digitale Souveränität: Was passiert, wenn jemand den Stecker zieht?</title><link>https://handyintelligence.com/de/blog/digitale-souveraenitaet/</link><pubDate>Tue, 03 Feb 2026 00:00:00 +0000</pubDate><guid>https://handyintelligence.com/de/blog/digitale-souveraenitaet/</guid><description>&lt;h1 id="-was-passiert-wenn-morgen-jemand-den-stecker-zieht">⚡️ Was passiert, wenn morgen jemand den Stecker zieht?&lt;/h1>
&lt;p>Nicht metaphorisch. Sondern ganz real: Identität, Kollaboration, Cloud-Services, Security-Stack – weg oder eingeschränkt.&lt;/p>
&lt;label class="lightbox-trigger db" for="lb-trump-switch">
&lt;img src="https://handyintelligence.com/images/trump-flips-switch.jpg" alt="Digitale Abhängigkeit – Was passiert, wenn jemand den Stecker zieht?" class="w-100 br2 mv3">
&lt;/label>
&lt;input type="checkbox" id="lb-trump-switch" class="lightbox-toggle">
&lt;label class="lightbox-overlay" for="lb-trump-switch">
&lt;img src="https://handyintelligence.com/images/trump-flips-switch.jpg" alt="Digitale Abhängigkeit – Was passiert, wenn jemand den Stecker zieht?">
&lt;/label>
&lt;p>Die Grafik bringt&amp;rsquo;s brutal auf den Punkt: &lt;strong>Digitale Abhängigkeit ist inzwischen ein Betriebsrisiko.&lt;/strong>&lt;/p>
&lt;p>Kein „IT-Thema&amp;quot;. Sondern: Lieferfähigkeit, Cashflow, Reputation. 💥&lt;/p>
&lt;p>Und das Gemeine: Viele Unternehmen spüren das Risiko – aber es bleibt diffus.
„Wir sind halt in der Cloud&amp;hellip; wird schon&amp;hellip;&amp;quot; 😬&lt;/p></description></item><item><title>K3s vs. K8s: Die unbequeme Wahrheit (ohne Hype)</title><link>https://handyintelligence.com/de/blog/k3s-vs-k8s/</link><pubDate>Tue, 03 Feb 2026 00:00:00 +0000</pubDate><guid>https://handyintelligence.com/de/blog/k3s-vs-k8s/</guid><description>&lt;h1 id="k3s-vs-k8s-die-unbequeme-wahrheit-ohne-hype">K3s vs. K8s: Die unbequeme Wahrheit (ohne Hype)&lt;/h1>
&lt;p>Es gibt eine Diskussion, die sich in vielen Teams erstaunlich hartnäckig hält:&lt;/p>
&lt;blockquote>
&lt;p>„K3s ist doch nur Kubernetes light.&amp;quot;&lt;/p>&lt;/blockquote>
&lt;p>Die unbequeme Antwort ist viel simpler:&lt;/p>
&lt;p>&lt;strong>K3s IST Kubernetes. Punkt.&lt;/strong>&lt;/p>
&lt;p>Nicht „für Anfänger&amp;quot;. Nicht „für Edge&amp;quot;. Nicht „light&amp;quot;. Es ist ein Kubernetes-Distribution-Setup, das dir den Schmerz abnimmt – nicht die Fähigkeiten.&lt;/p>
&lt;h2 id="was-k3s-wirklich-ist">Was K3s wirklich ist&lt;/h2>
&lt;p>Wenn man es zugespitzt formuliert:&lt;/p>
&lt;ul>
&lt;li>&lt;strong>K8s (DIY):&lt;/strong> „Hier sind die Teile. Viel Spaß beim Zusammenbauen.&amp;quot;&lt;/li>
&lt;li>&lt;strong>K3s:&lt;/strong> „Hier ist ein fertiger Cluster. Mach was damit.&amp;quot;&lt;/li>
&lt;/ul>
&lt;p>Und das Entscheidende:&lt;/p></description></item><item><title>Transformers: Beeindruckend, aber wirklich die Zukunft?</title><link>https://handyintelligence.com/de/blog/transformers-architektur/</link><pubDate>Wed, 10 Dec 2025 00:00:00 +0000</pubDate><guid>https://handyintelligence.com/de/blog/transformers-architektur/</guid><description>&lt;h1 id="-transformers-sind-beeindruckend--aber-sind-sie-wirklich-die-zukunft">🧠 Transformers sind beeindruckend – aber sind sie wirklich die Zukunft?&lt;/h1>
&lt;p>Das untenstehende Diagramm (aus der mechanistic interpretability Forschung) ist eines der besten Beispiele dafür, warum die Transformer-Architektur an ihre Grenzen stößt.&lt;/p>
&lt;label class="lightbox-trigger db" for="lb-opus-math">
&lt;img src="https://handyintelligence.com/images/opus-math.jpg" alt="Mechanistic Interpretability – Wie ein Transformer 36+59 berechnet" class="w-100 br2 mv3">
&lt;/label>
&lt;input type="checkbox" id="lb-opus-math" class="lightbox-toggle">
&lt;label class="lightbox-overlay" for="lb-opus-math">
&lt;img src="https://handyintelligence.com/images/opus-math.jpg" alt="Mechanistic Interpretability – Wie ein Transformer 36+59 berechnet">
&lt;/label>
&lt;h2 id="-die-aufgabe-36--59">👉 Die Aufgabe: 36 + 59&lt;/h2>
&lt;p>Was für uns trivial ist, wird im Transformer zu einem labyrinthischen Prozess mit zwei parallelen Pfaden – einer schätzt grob, der andere versucht das letzte Ziffernbit korrekt zu bekommen.&lt;/p></description></item><item><title>Best of: Claude Code – Agenten, Hooks &amp; Git-Magie</title><link>https://handyintelligence.com/de/blog/claude-code-workflows/</link><pubDate>Fri, 26 Sep 2025 00:00:00 +0000</pubDate><guid>https://handyintelligence.com/de/blog/claude-code-workflows/</guid><description>&lt;h1 id="-best-of-claude-code--agenten-hooks--git-magie">🚀 Best of: Claude Code – Agenten, Hooks &amp;amp; Git-Magie&lt;/h1>
&lt;p>Die knackigsten Learnings aus Community-Projekten, Blogs &amp;amp; Docs – für eine robuste, reproduzierbare AI-Dev-Pipeline. 👇&lt;/p>
&lt;h2 id="-agentische-workflows-plan--build--verify">🧭 Agentische Workflows (Plan → Build → Verify)&lt;/h2>
&lt;ul>
&lt;li>&lt;strong>Mehr-Agenten-Pipelines:&lt;/strong> o3 plant detailliert, Sonnet baut, striktes Modell verifiziert.&lt;/li>
&lt;li>&lt;strong>Jede Aufgabe = eigener Commit;&lt;/strong> parallel mit Git-Worktrees.&lt;/li>
&lt;/ul>
&lt;h2 id="-sub-agenten--meta-agenten">🧩 Sub-Agenten &amp;amp; Meta-Agenten&lt;/h2>
&lt;ul>
&lt;li>&lt;strong>Sub-Agenten als Markdown mit YAML&lt;/strong> (Reviewer, Test-Engineer, Doku, Security, Perf, Architekt).&lt;/li>
&lt;li>&lt;strong>Meta-Agent&lt;/strong> erzeugt neue Sub-Agenten inkl. Tooling &amp;amp; Prompts – konsistentes Format by design.&lt;/li>
&lt;/ul>
&lt;h2 id="-best-practices">🛠️ Best Practices&lt;/h2>
&lt;ul>
&lt;li>&lt;strong>Phase 1:&lt;/strong> Lesen &amp;amp; Planen (strukturierte Schritte).&lt;/li>
&lt;li>&lt;strong>Phase 2:&lt;/strong> Implementieren &amp;amp; Validieren (Tests zuerst, dann Commit). ✅&lt;/li>
&lt;/ul>
&lt;h2 id="-hook-system-8-events">🪝 Hook-System (8 Events)&lt;/h2>
&lt;p>&lt;code>UserPromptSubmit&lt;/code>, &lt;code>Pre/PostToolUse&lt;/code>, &lt;code>Notification&lt;/code>, &lt;code>Stop&lt;/code>, &lt;code>SubagentStop&lt;/code>, &lt;code>PreCompact&lt;/code>, &lt;code>SessionStart&lt;/code>.&lt;/p></description></item><item><title>Common Crawl: Gold für die Datenwelt</title><link>https://handyintelligence.com/de/blog/common-crawl/</link><pubDate>Fri, 05 Sep 2025 00:00:00 +0000</pubDate><guid>https://handyintelligence.com/de/blog/common-crawl/</guid><description>&lt;h1 id="-was-ist-common-crawl-und-warum-ist-es-gold-für-die-datenwelt-">🌐 Was ist Common Crawl und warum ist es Gold für die Datenwelt? 💡&lt;/h1>
&lt;p>Common Crawl ist ein offenes Web-Archiv, das seit 2008 monatlich große Teile des öffentlichen Internets speichert. 💾💻&lt;/p>
&lt;p>Und das Beste? Es ist frei verfügbar! Für Forschende, Entwickler:innen, Startups – für alle, die mit großen Textmengen arbeiten wollen. 🙌&lt;/p>
&lt;h2 id="-was-steckt-in-common-crawl">📦 Was steckt in Common Crawl?&lt;/h2>
&lt;ul>
&lt;li>👉 &lt;strong>Webseiten-Inhalte&lt;/strong> (HTML, Text)&lt;/li>
&lt;li>👉 &lt;strong>Metadaten&lt;/strong> (Zeitstempel, URLs, Sprache, etc.)&lt;/li>
&lt;li>👉 &lt;strong>Link-Strukturen&lt;/strong> (Wer verlinkt auf wen?)&lt;/li>
&lt;li>👉 &lt;strong>Textdaten zur Sprachmodellierung&lt;/strong>&lt;/li>
&lt;li>👉 &lt;strong>Crawl-Volumen?&lt;/strong> Mehrere Milliarden Webseiten pro Monat! 😮&lt;/li>
&lt;/ul>
&lt;p>Ein typischer Crawl enthält Daten aus zig Millionen Domains – z.B. News-Seiten, Blogs, Wikipedia, Stack Overflow, Produktbeschreibungen, Foren&amp;hellip; der bunte Mix des Internets eben. 🌍&lt;/p></description></item><item><title>Excel ist nicht das Futter für KI – es ist die Verpackung</title><link>https://handyintelligence.com/de/blog/mcp-excel/</link><pubDate>Fri, 29 Aug 2025 00:00:00 +0000</pubDate><guid>https://handyintelligence.com/de/blog/mcp-excel/</guid><description>&lt;h1 id="excel-ist-nicht-das-futter-für-ki--es-ist-die-verpackung-">Excel ist nicht das Futter für KI – es ist die Verpackung. 🧮📦&lt;/h1>
&lt;p>Der effektivste Weg: Einen MCP-Server um das Excel bauen und die KI per Funktionsaufrufen genau die Datenscheiben anfordern lassen, die sie wirklich braucht.&lt;/p>
&lt;h2 id="warum-das-wirkt">Warum das wirkt&lt;/h2>
&lt;ul>
&lt;li>🎯 &lt;strong>Präzise Slices:&lt;/strong> &lt;code>list_sheets&lt;/code> → &lt;code>describe&lt;/code> → &lt;code>select(columns, where, limit, cursor)&lt;/code> – nur Relevantes landet im Kontext.&lt;/li>
&lt;li>💸 &lt;strong>Kosten im Griff:&lt;/strong> Projektion/Filter/Aggregation laufen serverseitig (Pushdown).&lt;/li>
&lt;li>🧪 &lt;strong>Reproduzierbar:&lt;/strong> Typen, Validierung, Constraints &amp;amp; Idempotenz im Tool, nicht im Prompt.&lt;/li>
&lt;li>🔒 &lt;strong>Governance:&lt;/strong> PII-Masking, Audit-Logs, Rate-Limits, Row-Level-Security.&lt;/li>
&lt;li>🔁 &lt;strong>Rückschreiben:&lt;/strong> &lt;code>write_back(mapping, validate=true)&lt;/code> mit Checks &amp;amp; sauberem Report.&lt;/li>
&lt;/ul>
&lt;h2 id="so-läuft-es-ab">So läuft es ab&lt;/h2>
&lt;ol>
&lt;li>&lt;strong>Excel am MCP registrieren&lt;/strong> (unter der Haube: Power Query, pandas oder SQL).&lt;/li>
&lt;li>&lt;strong>KI nutzt &lt;code>describe()&lt;/code>&lt;/strong> für Struktur &amp;amp; Datentypen.&lt;/li>
&lt;li>&lt;strong>KI zieht gezielte Slices&lt;/strong> via &lt;code>select()&lt;/code> und arbeitet dort, wo Sprache &amp;amp; Urteil zählen: Klassifizieren, Normalisieren, Dubletten mergen, Zusammenfassen.&lt;/li>
&lt;li>&lt;strong>Ergebnisse validieren&lt;/strong> und mit &lt;code>write_back()&lt;/code> in neue Spalten/Sheets/DB zurückspielen.&lt;/li>
&lt;/ol>
&lt;h2 id="mini-case">Mini-Case&lt;/h2>
&lt;p>Produktkatalog mit 20.000 Zeilen. MCP liefert nur &lt;code>name&lt;/code>, &lt;code>description&lt;/code>, &lt;code>brand&lt;/code> bei fehlender/unsicherer &lt;code>category&lt;/code>. Die KI klassifiziert diese 6–10 %. Danach &lt;code>write_back()&lt;/code> mit Validierung → neue &lt;code>category&lt;/code>-Spalte. Schnell, günstig, auditierbar – und skalierbar.&lt;/p></description></item><item><title>MoE ≠ weniger RAM – sondern mehr Tempo ⚡️</title><link>https://handyintelligence.com/de/blog/moe-ram-tempo/</link><pubDate>Thu, 28 Aug 2025 00:00:00 +0000</pubDate><guid>https://handyintelligence.com/de/blog/moe-ram-tempo/</guid><description>&lt;h1 id="moe--weniger-ram--sondern-mehr-tempo-">MoE ≠ weniger RAM – sondern mehr Tempo ⚡️&lt;/h1>
&lt;p>Es hält sich das Missverständnis, dass Mixture-of-Experts (MoE) die Speichernutzung am Endgerät senkt. In Wirklichkeit werden beim Inferenz-Serving &lt;strong>alle Experten-Gewichte geladen&lt;/strong>. Der Trick von MoE: Pro Token werden nur wenige Experten (z. B. Top-2) gerechnet. Das spart FLOPs und steigert Durchsatz – vor allem bei großen Providern mit vielen GPUs – aber spart nicht die Gewichte ein. 💾&lt;/p>
&lt;h2 id="-zahlen-für-ein-gefühl">📊 Zahlen für ein Gefühl&lt;/h2>
&lt;table>
 &lt;thead>
 &lt;tr>
 &lt;th>Modell&lt;/th>
 &lt;th>FP16&lt;/th>
 &lt;th>4-bit&lt;/th>
 &lt;/tr>
 &lt;/thead>
 &lt;tbody>
 &lt;tr>
 &lt;td>&lt;strong>Dense 7B&lt;/strong>&lt;/td>
 &lt;td>≈ 14 GB&lt;/td>
 &lt;td>≈ 4–5 GB (+ KV-Cache)&lt;/td>
 &lt;/tr>
 &lt;tr>
 &lt;td>&lt;strong>Dense 70B&lt;/strong>&lt;/td>
 &lt;td>≈ 140 GB&lt;/td>
 &lt;td>≈ 35–45 GB&lt;/td>
 &lt;/tr>
 &lt;tr>
 &lt;td>&lt;strong>MoE 8x7B (Top-2)&lt;/strong>&lt;/td>
 &lt;td>≈ 112 GB (gesamt ≈ 56 B Param)&lt;/td>
 &lt;td>≈ 28–35 GB&lt;/td>
 &lt;/tr>
 &lt;tr>
 &lt;td>&lt;strong>MoE 16x8B (Top-2)&lt;/strong>&lt;/td>
 &lt;td>≈ ~256 GB (gesamt ≈ 128 B)&lt;/td>
 &lt;td>≈ 64–80 GB&lt;/td>
 &lt;/tr>
 &lt;/tbody>
&lt;/table>
&lt;p>Beim MoE 8x7B sind pro Token nur ≈ 14 B Parameter aktiv – aber geladen bleiben ~56 B.&lt;/p></description></item><item><title>🔍 Transformer Explainer: Verstehe LLMs – ohne sie zu mystifizieren</title><link>https://handyintelligence.com/de/blog/transformer-explainer/</link><pubDate>Wed, 27 Aug 2025 00:00:00 +0000</pubDate><guid>https://handyintelligence.com/de/blog/transformer-explainer/</guid><description>&lt;h1 id="-transformer-explainer-verstehe-llms--ohne-sie-zu-mystifizieren">🔍 Transformer Explainer: Verstehe LLMs – ohne sie zu mystifizieren&lt;/h1>
&lt;p>Wer verstehen will, wie große Sprachmodelle (LLMs) funktionieren, findet im &lt;strong>Transformer Explainer&lt;/strong> von Polo Club einen genialen Startpunkt:&lt;/p>
&lt;p>👉 &lt;a href="https://poloclub.github.io/transformer-explainer/">https://poloclub.github.io/transformer-explainer/&lt;/a>&lt;/p>
&lt;p>Er zeigt interaktiv, wie Token durch Schichten fließen, worauf Attention-Heads &amp;ldquo;schauen&amp;rdquo; und wie am Ende das nächste Wort vorhergesagt wird. 🎛️✨&lt;/p>
&lt;h2 id="warum-das-wichtig-ist">Warum das wichtig ist&lt;/h2>
&lt;ul>
&lt;li>➡️ &lt;strong>LLMs ≠ Denken.&lt;/strong> Sie sind hochskalierte Nächstes-Token-Prädiktoren.&lt;/li>
&lt;li>➡️ &lt;strong>Weniger Anthropomorphismus.&lt;/strong> Kein Bewusstsein, keine Intention – nur Statistik.&lt;/li>
&lt;li>➡️ &lt;strong>Bessere Praxis.&lt;/strong> Wer versteht, was im Modell passiert, schreibt bessere Prompts, evaluiert realistischer und setzt Grenzen sinnvoller.&lt;/li>
&lt;/ul>
&lt;h2 id="-kurzer-technik-überblick-ohne-mathe-overkill">🛠️ Kurzer Technik-Überblick (ohne Mathe-Overkill)&lt;/h2>
&lt;ol>
&lt;li>Der Text wird in &lt;strong>Token&lt;/strong> zerlegt und in Vektoren (&lt;strong>Embeddings&lt;/strong>) verwandelt.&lt;/li>
&lt;li>&lt;strong>Self-Attention&lt;/strong> gewichtet, welche früheren Token wichtig sind (mehr &amp;ldquo;Aufmerksamkeit&amp;rdquo; = mehr Einfluss).&lt;/li>
&lt;li>&lt;strong>MLP/Feedforward &amp;amp; Residual-Verbindungen&lt;/strong> mischen Signale, &lt;strong>Layer-Norm&lt;/strong> stabilisiert.&lt;/li>
&lt;li>Am Ende entstehen &lt;strong>Logits&lt;/strong> → &lt;strong>Softmax&lt;/strong> → das wahrscheinlichste nächste Token. Dann geht&amp;rsquo;s von vorn los. 🔁&lt;/li>
&lt;/ol>
&lt;h2 id="-was-man-daraus-mitnehmen-sollte">💡 Was man daraus mitnehmen sollte&lt;/h2>
&lt;ul>
&lt;li>&lt;strong>&amp;ldquo;Halluzinationen&amp;rdquo; sind keine Lügen&lt;/strong> – nur selbstsichere, aber falsche Vorhersagen aus unzureichendem Kontext.&lt;/li>
&lt;li>&lt;strong>Guter Kontext + klare Instruktionen&lt;/strong> → bessere Token-Sequenzen.&lt;/li>
&lt;li>&lt;strong>Evaluation &amp;gt; Bauchgefühl:&lt;/strong> Messt Qualität, Robustheit und Risiken, statt Intelligenz zu unterstellen.&lt;/li>
&lt;/ul>
&lt;h2 id="-tipp">👉 Tipp&lt;/h2>
&lt;p>Öffne den Transformer Explainer und beobachte, wie sich die Attention-Muster ändern, wenn du den Eingabetext variierst. Du siehst sofort, warum Worte an unterschiedlichen Stellen unterschiedlich stark &amp;ldquo;zählen&amp;rdquo;. Das entzaubert – und macht dich besser im Umgang mit LLMs. 💡&lt;/p></description></item><item><title>🔥 Claude Code in der Praxis: Hooks, Subagents &amp; Multi-Agent-Power</title><link>https://handyintelligence.com/de/blog/claude-code-hooks/</link><pubDate>Tue, 26 Aug 2025 00:00:00 +0000</pubDate><guid>https://handyintelligence.com/de/blog/claude-code-hooks/</guid><description>&lt;h1 id="-claude-code-in-der-praxis-hooks-subagents--multi-agent-power">🔥 Claude Code in der Praxis: Hooks, Subagents &amp;amp; Multi-Agent-Power&lt;/h1>
&lt;p>Claude Code bringt echte Workflow-Features für Dev-Teams – nicht nur &amp;ldquo;Chat + Code&amp;rdquo;, sondern strukturierte Automatisierung. Hier die Highlights, kurz &amp;amp; knackig:&lt;/p>
&lt;h2 id="-hooks-automations-trigger">🪝 Hooks (Automations-Trigger)&lt;/h2>
&lt;p>Definiere Ereignisse wie &lt;code>on-plan&lt;/code>, &lt;code>on-edit&lt;/code>, &lt;code>on-test&lt;/code> oder &lt;code>on-commit&lt;/code>. Bei jedem Schritt laufen Linting, Type-Checks, Tests oder dein CLI-Script. Die Ergebnisse fließen direkt zurück – Claude iteriert, bis es grün ist.&lt;/p>
&lt;h2 id="-subagents-spezialisten">🧩 Subagents (Spezialisten)&lt;/h2>
&lt;p>Erstelle fokussierte Helfer mit klaren Rollen: &lt;strong>Implementer&lt;/strong>, &lt;strong>Test Writer&lt;/strong>, &lt;strong>Docs Scribe&lt;/strong>, &lt;strong>Security Reviewer&lt;/strong>. Jeder Subagent bekommt eigenes Briefing, Zugriffsräume und Qualitätskriterien.&lt;/p></description></item><item><title>🚀 Leichtgewichtig, leistungsstark und vielseitig: Das neue Gemma 3 270M Modell</title><link>https://handyintelligence.com/de/blog/gemma-3-270m/</link><pubDate>Tue, 26 Aug 2025 00:00:00 +0000</pubDate><guid>https://handyintelligence.com/de/blog/gemma-3-270m/</guid><description>&lt;h1 id="-leichtgewichtig-leistungsstark-und-vielseitig-das-neue-gemma-3-270m-modell-ist-da-">🚀 Leichtgewichtig, leistungsstark und vielseitig: Das neue Gemma 3 270M Modell ist da! 🧠💡&lt;/h1>
&lt;p>Wer denkt, man braucht riesige Serverfarmen, um mit KI zu arbeiten – sollte nochmal nachdenken! 😎 Das neue &lt;strong>Gemma 3 270M Modell&lt;/strong> von Google zeigt, dass klein auch smart sein kann:&lt;/p>
&lt;h2 id="-kompakt--effizient">🧩 Kompakt &amp;amp; effizient&lt;/h2>
&lt;p>Mit nur &lt;strong>270 Millionen Parametern&lt;/strong> ist es extrem ressourcenschonend und läuft sogar problemlos auf einer CPU! 💻 Kein teures Setup nötig – ideal für lokale Anwendungen, Edge-Devices oder zum schnellen Prototypen.&lt;/p></description></item><item><title>🚀 Sora ist beeindruckend – aber (noch) nichts für Präzisionsarbeit!</title><link>https://handyintelligence.com/blog/sora-generalist-gegen-spezialist/</link><pubDate>Thu, 13 Mar 2025 00:00:00 +0000</pubDate><guid>https://handyintelligence.com/blog/sora-generalist-gegen-spezialist/</guid><description>&lt;p>KI-generierte Videos haben mit &lt;strong>Sora&lt;/strong>, dem neuesten Videomodell von OpenAI, einen riesigen Sprung gemacht. Aber hier kommt der Haken: Obwohl es &lt;strong>atemberaubende, filmreife Bilder&lt;/strong> liefert, ist es noch nicht geeignet für Aufgaben, bei denen es auf &lt;strong>Präzision und Kontrolle&lt;/strong> ankommt.&lt;/p>
&lt;h2 id="-wo-sora-an-seine-grenzen-stößt">📸 Wo Sora an seine Grenzen stößt&lt;/h2>
&lt;p>Trotz seiner kreativen Stärke hat Sora Probleme mit &lt;strong>kleinen Details und Konsistenz&lt;/strong> – zwei Schlüsselkriterien in der professionellen visuellen Arbeit.&lt;/p>
&lt;p>Im Vergleich dazu &lt;strong>spezialisierte KI-Modelle&lt;/strong>:&lt;/p></description></item><item><title>KI bauen: Straßen, Netzwerke und Kreativität 🚧🤖</title><link>https://handyintelligence.com/blog/ki-strassen-bauen/</link><pubDate>Fri, 31 Jan 2025 00:00:00 +0000</pubDate><guid>https://handyintelligence.com/blog/ki-strassen-bauen/</guid><description>&lt;h1 id="ki-bauen-straßen-netzwerke-und-kreativität-">KI bauen: Straßen, Netzwerke und Kreativität 🚧🤖&lt;/h1>
&lt;p>KI-Lösungen zu entwickeln – ob einfach oder komplex – ist ein bisschen wie das Entwerfen eines Straßennetzes. Manchmal reicht eine einzige, direkte Straße. In anderen Fällen braucht man:&lt;/p>
&lt;ul>
&lt;li>🏗 Weichen, um die Richtung zu ändern,&lt;/li>
&lt;li>🏘 Wege, die durch ganze Stadtviertel führen, oder&lt;/li>
&lt;li>🌐 Netzwerke aus miteinander verbundenen Pfaden, um komplexe Routen zu bewältigen.&lt;/li>
&lt;/ul>
&lt;p>Jedes Szenario ist einzigartig, mit eigenen Herausforderungen und Zielen.&lt;/p></description></item><item><title>Warum Local AI 2025 der klügste Tech-Move sein könnte</title><link>https://handyintelligence.com/de/blog/local-ai-2025/</link><pubDate>Wed, 15 Jan 2025 00:00:00 +0000</pubDate><guid>https://handyintelligence.com/de/blog/local-ai-2025/</guid><description>&lt;h1 id="-warum-local-ai-2025-der-klügste-tech-move-sein-könnte">🔒✨ Warum Local AI 2025 der klügste Tech-Move sein könnte&lt;/h1>
&lt;p>Cloud-AI ist bequem – bis die API-Rechnung kommt. 💸&lt;/p>
&lt;p>Aber was wäre, wenn KI-Modelle lokal betrieben werden könnten – auf eigenen Geräten, ohne Daten in die Cloud zu schicken, ohne pro Anfrage zu zahlen, und mit voller Datenkontrolle?&lt;/p>
&lt;h2 id="-willkommen-in-der-welt-der-local-ai">🌐 Willkommen in der Welt der Local AI&lt;/h2>
&lt;ul>
&lt;li>🚀 &lt;strong>Riesenmengen an Daten direkt vor Ort verarbeiten&lt;/strong>&lt;/li>
&lt;li>🧠 &lt;strong>Keine ständige Internetverbindung nötig&lt;/strong>&lt;/li>
&lt;li>💼 &lt;strong>Sensible Geschäftsdaten bleiben, wo sie hingehören&lt;/strong> – im eigenen Unternehmen&lt;/li>
&lt;li>💰 &lt;strong>Schluss mit unvorhersehbaren API-Kosten&lt;/strong>&lt;/li>
&lt;/ul>
&lt;h2 id="-was-heute-schon-möglich-ist">🔧 Was heute schon möglich ist&lt;/h2>
&lt;p>Ob große Sprachmodelle am eigenen Arbeitsplatz oder feinjustierte Vision-Modelle, die Terabytes an Bildern analysieren – lokale KI sprengt die bisherigen Grenzen von Performance und Kosten.&lt;/p></description></item><item><title>⚠️ Kritisches Problem: Strukturierte Ausgabefelder von OpenAI können überschrieben werden</title><link>https://handyintelligence.com/blog/kritisches-problem-strukturierte-ausgabe-openai/</link><pubDate>Thu, 17 Oct 2024 00:00:00 +0000</pubDate><guid>https://handyintelligence.com/blog/kritisches-problem-strukturierte-ausgabe-openai/</guid><description>&lt;h1 id="-kritisches-problem-strukturierte-ausgabefelder-von-openai-können-überschrieben-werden-">⚠️ Kritisches Problem: Strukturierte Ausgabefelder von OpenAI können überschrieben werden 🚨&lt;/h1>
&lt;p>In den Modellen von OpenAI sollen strukturierte Ausgabefelder das Format und den Inhalt der Antworten steuern. Allerdings werden die Beschreibungen dieser Felder lediglich als Teil des Kontexts der Eingabe behandelt. Das bedeutet: Wenn man den Feldnamen kennt, kann man dessen Bedeutung im Prompt neu definieren.&lt;/p>
&lt;p>🔴 Dieses Verhalten ist nicht beabsichtigt und kann zu Problemen führen, wie zum Beispiel:&lt;/p></description></item><item><title>KI &amp; Docker: Maximale Effizienz durch Containerisierung</title><link>https://handyintelligence.com/blog/ki-und-docker/</link><pubDate>Thu, 26 Sep 2024 00:00:00 +0000</pubDate><guid>https://handyintelligence.com/blog/ki-und-docker/</guid><description>&lt;h1 id="-ki--docker-maximale-effizienz-durch-containerisierung-">🚀 KI &amp;amp; Docker: Maximale Effizienz durch Containerisierung! 🧠&lt;/h1>
&lt;p>Im rasant wachsenden Bereich der Künstlichen Intelligenz (KI) spielt Docker eine entscheidende Rolle. Es ermöglicht Entwicklern und Unternehmen, KI-Anwendungen isoliert und plattformunabhängig zu betreiben. Doch warum ist Docker so wichtig für KI? 🤔&lt;/p>
&lt;h2 id="-vorteile-von-docker-für-ki">🔑 Vorteile von Docker für KI&lt;/h2>
&lt;ul>
&lt;li>&lt;strong>Einfachheit&lt;/strong>: Mit Docker lassen sich KI-Umgebungen in wenigen Minuten erstellen und konfigurieren.&lt;/li>
&lt;li>&lt;strong>Skalierbarkeit&lt;/strong>: Docker-Container können leicht auf verschiedene Systeme skaliert werden – lokal, in der Cloud oder in hybriden Umgebungen.&lt;/li>
&lt;li>&lt;strong>Wiederholbarkeit&lt;/strong>: Docker sorgt dafür, dass KI-Projekte überall gleich funktionieren – unabhängig von der zugrunde liegenden Infrastruktur.&lt;/li>
&lt;li>&lt;strong>Open-Source-Power&lt;/strong>: Viele der besten Open-Source-KI-Tools sind dank Docker sofort einsatzbereit! 🌍&lt;/li>
&lt;/ul>
&lt;h2 id="-bekannte-open-source-ki-lösungen-die-mit-docker-funktionieren">🧰 Bekannte Open-Source-KI-Lösungen, die mit Docker funktionieren&lt;/h2>
&lt;ul>
&lt;li>&lt;strong>TensorFlow&lt;/strong> 🧠 – Eine umfassende Plattform für maschinelles Lernen von Google.&lt;/li>
&lt;li>&lt;strong>PyTorch&lt;/strong> 🔥 – Flexibles Deep-Learning-Framework von Facebook AI.&lt;/li>
&lt;li>&lt;strong>Hugging Face Transformers&lt;/strong> 🤗 – NLP-Bibliothek für modernste Sprachmodelle.&lt;/li>
&lt;li>&lt;strong>OpenCV&lt;/strong> 👁 – Open-Source-Computer-Vision-Bibliothek zur Bildverarbeitung.&lt;/li>
&lt;li>&lt;strong>Ray&lt;/strong> ⚡ – Framework für verteiltes maschinelles Lernen und Parallelisierung.&lt;/li>
&lt;li>&lt;strong>MLflow&lt;/strong> 📊 – Open-Source-Tool zur Verwaltung des Machine-Learning-Lebenszyklus.&lt;/li>
&lt;li>&lt;strong>KubeFlow&lt;/strong> 🛠 – Plattform für maschinelles Lernen auf Kubernetes.&lt;/li>
&lt;/ul>
&lt;p>Mit Docker können diese Lösungen nicht nur schnell eingesetzt, sondern auch einfach in verschiedene Umgebungen integriert werden. Egal ob du an kleinen Experimenten arbeitest oder KI-Modelle in großem Maßstab trainierst – Docker sorgt für Effizienz und Flexibilität.&lt;/p></description></item></channel></rss>