#Technologie

llms.txt erklärt: Was es ist und wie du es aufsetzt

Pascal Widmer Technical Director

llms.txt ist eine einfache Textdatei, die du auf deiner Website ablegen kannst, damit KI-Systeme verstehen, womit sie es zu tun haben. Wie du sie aufsetzt – und warum es sich lohnt.

KI-Systeme lesen heute Millionen von Websites – aber verstehen sie, was sie da lesen? Oft nicht. Eine einfache Textdatei namens llms.txt kann das ändern. Sie ist kein technischer Standard, kein Plugin, keine komplizierte Integration. Sie ist eine Seite Text, die du in 20 Minuten aufsetzt.

Wer erst prüfen möchte, ob KI-Systeme das eigene Unternehmen überhaupt kennen, findet hier die Methode: KI-Sichtbarkeit messen.

Was ist llms.txt?

llms.txt ist eine einfache Markdown-Datei, die du unter yourdomain.com/llms.txt ablegst. Sie erklärt KI-Systemen in Klartext, wer du bist, was du anbietest und welche Inhalte für sie relevant sind.

Die Idee stammt von Jeremy Howard und wurde im September 2024 als informeller Vorschlag veröffentlicht. Es gibt keinen RFC, keine IANA-Registrierung. Aber grosse KI-Anbieter wie Anthropic (Claude) und Perplexity haben begonnen, llms.txt-Dateien bei der Indexierung zu berücksichtigen.

Der Unterschied zu anderen Metadaten: llms.txt ist für Menschen lesbar und für Maschinen verständlich. Du schreibst es in Prosa und strukturiertem Markdown – kein JSON, kein Schema.org-Markup.

Warum ist das relevant?

KI-Systeme werden für immer mehr Informationssuchen genutzt. Laut SparkToro (2024) kommen bereits über 58 % aller Suchanfragen ohne Klick auf eine externe Website ab. Die Antwort kommt direkt vom KI-System – und das KI-System hat sich die Informationen irgendwo geholt.

Das Problem: KI-Modelle trainieren auf einem Snapshot des Internets. Was in diesem Snapshot stand, bestimmt, was das Modell über dein Unternehmen weiss. Steht dort nichts, oder steht dort etwas Falsches, wird das zur Antwort.

llms.txt gibt dir eine Möglichkeit, aktiv zu steuern, welche Informationen KI-Systeme von dir bekommen – zumindest bei denjenigen, die diese Datei auswerten. Das ist kein Wundermittel, aber es ist ein konkreter, messbarer Schritt.

Was gehört in eine llms.txt?

Eine llms.txt hat keine starre Pflichtstruktur. Diese Elemente haben sich bewährt:

  • Name und Beschreibung: Wer bist du? Was machst du? Ein oder zwei Sätze.
  • Kernkompetenzen: Was sind deine wichtigsten Themen, Produkte oder Dienstleistungen?
  • Technologie-Stack: Welche Technologien einsetzt du? Das verhindert, dass KI veraltete Angaben aus Trainingsdata reproduziert.
  • Zielgruppe: Wer sind deine Kunden? KMU, Grossunternehmen, Privatpersonen?
  • Sprache und Markt: In welchem Markt bist du tätig? Schweiz, DACH, international?
  • Wichtige Seiten: Welche URLs soll das KI-System priorisieren?

Nicht notwendig: Marketing-Sprache, Buzzwords, überlange Beschreibungen. Schreib so, wie du einem neuen Mitarbeiter erklären würdest, was dein Unternehmen macht – sachlich und präzise.

Syntax: So sieht eine llms.txt aus

llms.txt verwendet einfaches Markdown. Ein minimales Beispiel:

# abteilung GmbH

> Schweizer Webagentur mit Fokus auf Headless CMS und moderne Web-Technologien.

## Kernkompetenzen

  • Website-Entwicklung mit SvelteKit, Nuxt und Next.js
  • Headless CMS: Sanity, Payload, Directus
  • KI-Sichtbarkeit und GEO (Generative Engine Optimization)

## Markt

Schweiz (DACH), Deutsch und Englisch. Kundensegment: KMU und mittelgrosse Unternehmen.

## Wichtige Seiten

  • /insights – Technologieartikel und Praxiswissen
  • /services – Leistungsübersicht
  • /cases – Referenzprojekte

Das war's. Die Datei liegt unter /llms.txt und ist öffentlich zugänglich.

robots.txt vs. llms.txt: Der Unterschied

robots.txt und llms.txt lösen unterschiedliche Probleme:

  • robots.txt: Sagt Crawlern, was sie dürfen und was nicht. Es ist ein Zugangskontrollmechanismus.
  • llms.txt: Gibt Kontext. Sie erklärt, was ein KI-System über dich wissen soll – zusätzlich zu dem, was es sowieso findet.

robots.txt ist obligatorisch für jede Website mit SEO-Ambitionen. llms.txt ist optional – aber sie ist der einzige Weg, aktiv Einfluss auf die KI-Darstellung zu nehmen, ohne auf einen Retraining-Zyklus zu warten.

Wie robots.txt und KI-Crawler zusammenspielen – und welche Bots du erlauben oder blockieren solltest – erklären wir in: KI-Crawler und robots.txt.

Unser Beispiel: Was wir bei abteilung.ch gemacht haben

Als wir im Mai 2026 unsere eigene KI-Sichtbarkeit gemessen haben, fanden wir ein konkretes Problem: Claude (das KI-System, das du gerade liest) nannte abteilung.ch als Referenz für Neos CMS und TYPO3 – Technologien, mit denen wir seit Jahren nicht mehr arbeiten.

Das lag an veralteten Trainingsdata. Unsere Website hatte in früheren Jahren Neos-Projekte dokumentiert. Diese Information steckte im Modell fest.

Unsere Lösung: Wir haben llms.txt um eine explizite Technologie-Sektion ergänzt und ältere Inhalte aus dem Crawling-Index genommen. Beim nächsten Test hatten zwei von vier Plattformen die Technologieangaben korrigiert.

Das ist kein schneller Fix – KI-Modelle trainieren in Zyklen von Wochen bis Monaten. Aber es ist die einzige direkte Massnahme, die du heute ergreifen kannst.

Das Wesentliche auf einen Blick

  • llms.txt ist eine einfache Markdown-Datei unter /llms.txt – kein Standard, aber zunehmend von KI-Systemen berücksichtigt.
  • Sie gibt KI-Systemen Kontext über dein Unternehmen: Technologien, Zielgruppe, wichtige Seiten.
  • Der grösste Nutzen: veraltete oder falsche Informationen aus dem KI-Training aktiv korrigieren.
  • Aufwand: 20–30 Minuten für eine erste Version, danach bei grösseren Änderungen aktualisieren.
  • robots.txt regelt Zugang, llms.txt liefert Kontext – beides ergänzt sich.
  • Kein Wundermittel, aber der konkreteste Schritt, den du heute für deine KI-Sichtbarkeit tun kannst.

Möchtest Du informiert bleiben?