Das Zeitalter der KI-Suche ist angebrochen. ChatGPT-Websuche, Perplexity, Google AI Overviews — die Zahl der Nutzer, die Informationen ueber KI beziehen, waechst rasant. Dadurch wird es immer wichtiger, dass KI-Systeme Ihre Website korrekt verstehen.

Genau dafuer wurde llms.txt geschaffen. Wenn robots.txt die Datei ist, die Suchmaschinen-Crawlern wie Googlebot mitteilt „diese Seite darf/darf nicht gecrawlt werden", dann ist llms.txt die Datei, die KI-Crawlern wie GPTBot oder ClaudeBot sagt: „Das ist unsere Website und das bieten wir an".

Dieser Artikel erklaert umfassend das Format von llms.txt, welche Informationen eingetragen werden sollten, die Entscheidungskriterien zwischen statischer und dynamischer Generierung sowie Implementierungscode fuer gaengige Frameworks.

1. Was ist llms.txt?

llms.txt ist eine Klartextdatei im Markdown-Format, die im Stammverzeichnis einer Website platziert wird. Ihr Zweck ist es, LLMs (Large Language Models) eine Uebersicht ueber Inhalt, Struktur und Angebot der Website zu vermitteln.

Grundlegende Informationen

MerkmalDetails
Dateinamellms.txt
SpeicherortStammverzeichnis der Domain (https://example.com/llms.txt)
FormatMarkdown (Klartext)
ZeichenkodierungUTF-8
Initiatorllmstxt.org (Jeremy Howard u. a.)
StandardisierungsstatusDe-facto-Standard (kein formeller RFC o. Ae.)
Lesende BotsGPTBot, ClaudeBot, PerplexityBot, Google-Extended u. a.

Kurz gesagt

robots.txt = „Zutritt verboten" / llms.txt = „Das ist unsere Website"

Waehrend robots.txt eine Zugriffskontrolle darstellt (erlauben/verbieten), ist llms.txt eine Inhaltsbeschreibung (Selbstvorstellung). Beide stehen nicht im Widerspruch zueinander — sie sind vielmehr dazu gedacht, zusammen eingesetzt zu werden.

2. Warum wird es gebraucht? — Unterschied zu robots.txt

„Reichen Sitemap und Meta-Tags nicht aus, damit auch KI die Website versteht?" — ein berechtigter Gedanke. Doch llms.txt bietet eigene Vorteile.

Rollenvergleich: robots.txt / sitemap.xml / llms.txt

DateiZweckZielgruppeInhalt
robots.txtCrawl-Erlaubnis/-VerbotAlle CrawlerAllow-/Disallow-Regeln
sitemap.xmlSeitenliste bereitstellenSuchmaschinenURLs, Aenderungsdaten, Prioritaeten
llms.txtWebsite-Inhalte beschreibenLLM-CrawlerUebersicht, Struktur, Inhaltszusammenfassungen

Drei Gruende, warum llms.txt noetig ist

Grund 1: LLMs koennen eine Website nicht effizient vollstaendig crawlen

Der Googlebot crawlt Milliarden von Seiten und baut einen riesigen Index auf, doch LLM-Crawler arbeiten nicht annaehernd so umfassend. Mit llms.txt kann man der KI effizient mitteilen: „Das sind die wichtigsten Inhalte unserer Website."

Grund 2: Die Chance steigt, in KI-Antworten zitiert zu werden

Wenn ChatGPT oder Perplexity Antworten per Websuche generieren, kann eine klare Darstellung der Fachkompetenz und Inhalte ueber llms.txt dazu fuehren, dass die Website als vertrauenswuerdige Quelle wahrgenommen wird. Dies ist Teil von LLMO (Large Language Model Optimization).

Eine ausfuehrliche Erklaerung zu LLMO finden Sie in „Was ist LLMO?".

Grund 3: Meta-Informationen uebermitteln, die sitemap.xml nicht bietet

sitemap.xml ist lediglich eine URL-Liste. Mit llms.txt lassen sich zusaetzlich folgende Informationen vermitteln:

  • Thema und Fachgebiet der Website
  • Zusammenfassungen und Kategorien einzelner Inhalte
  • Aktualisierungshaeufigkeit und Umfang der Website
  • Ob Mehrsprachigkeit unterstuetzt wird
  • Kontaktinformationen

3. Formatspezifikation — was und wie schreiben

Formatstruktur von llms.txt: H1 fuer den Seitennamen, Zitatblock fuer die Beschreibung, H2 fuer Abschnitte, Inhaltsliste und Website-Informationen

llms.txt wird im Markdown-Format geschrieben. Das Format gemaess der Spezifikation von llmstxt.org sieht wie folgt aus:

Grundstruktur

# Website-Name

> Kurzbeschreibung der Website. In 1-3 Saetzen Thema, Zielgruppe und Mehrwert vermitteln.

## Abschnittsname 1

- [Seitentitel](URL): Zusammenfassung der Seite

## Abschnittsname 2

- [Seitentitel](URL): Zusammenfassung der Seite
- [Seitentitel](URL): Zusammenfassung der Seite

Formatregeln

ElementMarkdown-SyntaxFunktion
H1-Ueberschrift# Website-NameOffizieller Name der Website. Nur einmal pro Datei
Zitatblock> BeschreibungstextKurzbeschreibung der Website. Direkt nach H1
H2-Ueberschrift## AbschnittsnameGruppierung der Inhalte
Listenlink- [Titel](URL): BeschreibungInformationen zu einzelnen Inhalten

Konkretes Beispiel

# My Tech Blog

> My Tech Blog is a software engineering blog covering web development, cloud infrastructure, and AI tools. Updated weekly with practical tutorials and comparisons.

## Main Sections

- [Articles](https://example.com/articles): 50+ in-depth technical articles
- [Tutorials](https://example.com/tutorials): Step-by-step coding tutorials

## Popular Articles

- [React vs Vue in 2026](https://example.com/articles/react-vs-vue): A detailed comparison of React and Vue.js for modern web development, covering performance, ecosystem, and learning curve.
- [Docker for Beginners](https://example.com/articles/docker-beginners): Complete guide to Docker containers for developers who have never used containerization.

## Site Information

- URL: https://example.com
- Sitemap: https://example.com/sitemap.xml
- Languages: en, ja
- Contact: admin@example.com

Hinweise

  • Standardmaessig auf Englisch schreiben. Die llms.txt-Spezifikation und Beispiele sind durchweg auf Englisch, was es zur Best Practice macht. Fuer mehrsprachige Websites wird empfohlen, auf Englisch zu schreiben und die unterstuetzten Sprachen mit Languages: ja, en, es, ... anzugeben. Fuer einsprachige Websites (z.B. eine Website komplett auf Franzoesisch oder Russisch) ist es jedoch voellig akzeptabel, in der Sprache der Website zu schreiben. Die fuehrenden LLMs (GPT, Claude, Gemini usw.) verarbeiten die meisten Sprachen mit hoher Genauigkeit, und die Nutzer solcher Websites werden in derselben Sprache anfragen, was konsistente Antworten gewaehrleistet.
  • Zeichenkodierung muss UTF-8 sein. Andere Kodierungen koennen zu Darstellungsfehlern fuehren
  • Sonderzeichen wie Em-Dash (—) vermeiden. Da die Datei als Klartext angezeigt wird, koennen bestimmte Browser solche Zeichen falsch darstellen. Stattdessen Bindestrich (-) oder Doppelbindestrich (--) verwenden
  • URLs als absolute Pfade angeben (vollstaendige URLs beginnend mit https://)
  • Nur eine H1-Ueberschrift pro Datei. Fuer die Unterteilung H2 verwenden

4. Welche Informationen eingetragen werden — Pflicht, empfohlen, optional

Viele sind unsicher, was genau eingetragen werden soll. Hier eine Uebersicht nach Prioritaet:

Pflichtangaben (ohne diese ist llms.txt sinnlos)

InformationPlatzierungBeispiel
Website-NameH1-Ueberschrift# AI Arte
Website-BeschreibungZitatblock> AI learning platform...
HauptabschnitteH2 + Linkliste- [Articles](URL): Beschreibung

Empfohlene Angaben (verbessern das KI-Verstaendnis)

InformationWarum noetig?
Vollstaendige InhaltslisteDie KI kann den Umfang der gesamten Website erfassen
Einzeilige Zusammenfassung pro InhaltDie KI kann den Seiteninhalt vorab verstehen
Kategorie-/Tag-SystemZeigt die Informationsstruktur der Website
Website-URLGibt die kanonische URL an
Sitemap-URLVerweis auf die detaillierte URL-Liste
Unterstuetzte SprachenWichtig bei mehrsprachigen Websites
KontaktZeigt die Identitaet des Betreibers

Optionale Angaben (wuenschenswert, aber nicht zwingend)

  • Technologie-Stack: Womit die Website erstellt wurde (Framework usw.)
  • Aktualisierungshaeufigkeit: Wie oft neue Inhalte veroeffentlicht werden
  • Gesamtzahl der Inhalte: Anzahl der Artikel usw.
  • Lizenz-/Zitierrichtlinien: Ob KI-Systeme die Inhalte zitieren duerfen
  • API-Informationen: Falls programmatischer Zugriff moeglich ist

Was nicht eingetragen werden sollte

  • Vertrauliche Informationen: Admin-Panel-URLs, interne API-Endpunkte usw.
  • Personenbezogene Daten: Ueberfluessige persoenliche Angaben (Adresse, Telefonnummer usw.)
  • Zugangsdaten: API-Schluessel, Passwoerter usw.

5. Unterschied zwischen llms.txt und llms-full.txt

Die Spezifikation von llmstxt.org definiert neben llms.txt auch eine Datei namens llms-full.txt.

DateiInhaltGroesse (ca.)Zweck
llms.txtUebersicht, Struktur, Linkliste1-50 KB„Inhaltsverzeichnis" der gesamten Website
llms-full.txtVolltext aller Inhalte100 KB - mehrere MBStellt der KI den gesamten Inhalt bereit

Wann llms-full.txt sinnvoll ist

  • Technische Dokumentation: API-Referenzen oder Bibliotheksdokumentation, bei denen das Verstaendnis des Volltextes die Antwortgenauigkeit der KI verbessert
  • Wissensdatenbanken: FAQ-Sammlungen oder Glossare, die haeufig in Auszuegen zitiert werden

Wann llms-full.txt nicht noetig ist

  • Blogs und Medien-Websites: Bei vielen Artikeln wuerde eine einzelne Datei zu gross werden. Die Zusammenfassungen in llms.txt genuegen
  • E-Commerce-Websites: Produktinformationen werden besser ueber strukturierte Daten (JSON-LD usw.) bereitgestellt
  • Unternehmenswebsites: Bei wenigen Seiten reicht llms.txt allein aus

Fuer gewoehnliche Blogs und Medien-Websites genuegt llms.txt vollkommen. llms-full.txt ist eher fuer technische Dokumentation gedacht.

6. Statische Datei vs. dynamische Generierung — was waehlen?

Vergleich statische Datei vs. dynamische Generierung: Statisch ist einfach, birgt aber das Risiko veralteter Daten; dynamisch ist stets aktuell und betriebsarm

Fuer den Betrieb von llms.txt gibt es zwei grundlegende Ansaetze.

Ansatz 1: Statische Datei

Bei dieser Methode wird eine Textdatei direkt unter public/llms.txt (oder einem vergleichbaren Pfad) abgelegt.

Vorteile:

  • Einfachste Implementierung (Datei ablegen, fertig)
  • Keinerlei Serverlast
  • Funktioniert ohne Framework

Nachteile:

  • Bei jeder Inhaltsaenderung muss die Datei manuell aktualisiert werden
  • Wird die Aktualisierung vergessen, erhaelt die KI veraltete Informationen
  • Anzahl der Inhalte und Kategorien koennen von der Realitaet abweichen

Ansatz 2: Dynamische Generierung

Bei dieser Methode nimmt die Anwendung Anfragen an /llms.txt entgegen und generiert den Text dynamisch aus der Datenbank.

Vorteile:

  • Immer auf dem neuesten Stand
  • Neue Artikel erscheinen automatisch in llms.txt
  • Inhaltsanzahl und Kategorienamen sind stets korrekt

Nachteile:

  • Hoeherer Implementierungsaufwand (Routendefinition + Controller)
  • Bei jeder Anfrage erfolgt ein Datenbankzugriff (durch Caching reduzierbar)
  • Framework erforderlich

Entscheidungshilfe

BedingungEmpfehlung
Weniger als 10 Inhalte, selten neueStatische Datei genuegt
Mehr als 10 Inhalte oder monatliche AktualisierungDynamische Generierung empfohlen
WordPress / Laravel / Django o. Ae. im EinsatzDynamische Generierung ist leicht umsetzbar
Statische Website (Hugo, Jekyll, Astro o. Ae.)Idealerweise automatische Generierung beim Build
Ein-Personen-Betrieb, minimaler WartungsaufwandDynamisch (einmal einrichten, dann vergessen)

Im Zweifel: dynamische Generierung. Der anfaengliche Implementierungsaufwand ist hoeher, aber langfristig sinken die Betriebskosten, weil man es „einrichten und vergessen" kann. Das schlimmste Szenario ist eine statische Datei, deren Aktualisierung vergessen wird und die der KI veraltete Informationen liefert.

7. Implementierung — Codebeispiele fuer gaengige Frameworks

Im Folgenden werden Implementierungsbeispiele fuer die dynamische Generierung von llms.txt in gaengigen Frameworks vorgestellt.

Laravel (PHP)

Routendefinition (routes/web.php):

use App\Http\Controllers\LlmsTxtController;

Route::get('/llms.txt', [LlmsTxtController::class, 'index']);

Controller (app/Http/Controllers/LlmsTxtController.php):

class LlmsTxtController extends Controller
{
    public function index()
    {
        $articles = Article::published()
            ->with(['translations' => fn($q) => $q->where('locale', 'en')])
            ->orderBy('published_at')
            ->get();

        $lines = [];
        $lines[] = '# My Site Name';
        $lines[] = '';
        $lines[] = '> Site description here.';
        $lines[] = '';
        $lines[] = '## All Articles (' . $articles->count() . ')';
        $lines[] = '';

        foreach ($articles as $article) {
            $t = $article->translations->first();
            if (!$t) continue;
            $url = 'https://example.com/en/articles/' . $article->slug;
            $lines[] = '- [' . $t->title . '](' . $url . '): ' . $t->meta_description;
        }

        $content = implode("\n", $lines);
        return response($content, 200)
            ->header('Content-Type', 'text/plain; charset=utf-8');
    }
}

Wichtig ist die explizite Angabe von Content-Type: text/plain; charset=utf-8. Ohne diese Angabe wird die Datei moeglicherweise als HTML interpretiert.

Django (Python)

# urls.py
from django.urls import path
from . import views

urlpatterns = [
    path('llms.txt', views.llms_txt, name='llms_txt'),
]

# views.py
from django.http import HttpResponse
from .models import Article

def llms_txt(request):
    articles = Article.objects.filter(
        status='published'
    ).order_by('published_at')

    lines = ['# My Site', '', '> Description.', '', '## Articles', '']
    for a in articles:
        lines.append(f'- [{a.title}](https://example.com/articles/{a.slug}): {a.meta_description}')

    content = '\n'.join(lines)
    return HttpResponse(content, content_type='text/plain; charset=utf-8')

Next.js (TypeScript)

// app/llms.txt/route.ts (App Router)
import { NextResponse } from 'next/server'

export async function GET() {
  // Daten aus DB oder CMS abrufen
  const posts = await getAllPosts()

  const lines = [
    '# My Site',
    '',
    '> Description.',
    '',
    '## Articles',
    '',
    ...posts.map(p =>
      `- [${p.title}](https://example.com/posts/${p.slug}): ${p.description}`
    ),
  ]

  return new NextResponse(lines.join('\n'), {
    headers: { 'Content-Type': 'text/plain; charset=utf-8' },
  })
}

WordPress (PHP)

In die functions.php oder als Plugin einfuegen:

// functions.php
add_action('init', function() {
    add_rewrite_rule('^llms\.txt$', 'index.php?llms_txt=1', 'top');
});

add_filter('query_vars', function($vars) {
    $vars[] = 'llms_txt';
    return $vars;
});

add_action('template_redirect', function() {
    if (!get_query_var('llms_txt')) return;

    header('Content-Type: text/plain; charset=utf-8');
    $posts = get_posts(['numberposts' => -1, 'post_status' => 'publish']);

    echo "# " . get_bloginfo('name') . "\n\n";
    echo "> " . get_bloginfo('description') . "\n\n";
    echo "## Articles (" . count($posts) . ")\n\n";

    foreach ($posts as $post) {
        $url = get_permalink($post);
        $desc = get_the_excerpt($post);
        echo "- [{$post->post_title}]({$url}): {$desc}\n";
    }
    exit;
});

Bei WordPress nicht vergessen, die Permalink-Einstellungen neu zu speichern (Rewrite-Regeln flushen).

Statische Website-Generatoren (Hugo / Astro usw.)

Ein Skript schreiben, das die Datei beim Build automatisch erzeugt:

# build-llms-txt.sh (Beispiel fuer Hugo)
#!/bin/bash
echo "# My Site" > public/llms.txt
echo "" >> public/llms.txt
echo "> Site description." >> public/llms.txt
echo "" >> public/llms.txt
echo "## Articles" >> public/llms.txt
echo "" >> public/llms.txt

for file in content/posts/*.md; do
  title=$(grep '^title:' "$file" | sed 's/title: //')
  slug=$(basename "$file" .md)
  desc=$(grep '^description:' "$file" | sed 's/description: //')
  echo "- [${title}](https://example.com/posts/${slug}): ${desc}" >> public/llms.txt
done

Wenn dieses Skript in der CI-Pipeline (GitHub Actions usw.) vor dem Build ausgefuehrt wird, wird llms.txt bei jedem Deployment automatisch aktualisiert.

8. Pruefung und Validierung nach der Einrichtung

Nach der Einrichtung von llms.txt sollten folgende Punkte geprueft werden:

Grundlegende Checkliste

PruefpunktPruefmethode
Ist die URL erreichbar?curl https://ihreseite.de/llms.txt
Ist der Content-Type korrekt?curl -Itext/plain; charset=utf-8 pruefen
Werden Zeichen korrekt dargestellt?Datei direkt im Browser oeffnen und Darstellung pruefen
Sind die Links korrekt?Sind die angegebenen URLs tatsaechlich erreichbar?
Ist der HTTP-Status 200?curl -o /dev/null -w "%{http_code}"
Wird sie nicht von robots.txt blockiert?Kein Disallow: /llms.txt in robots.txt

Zusaetzliche Pruefung bei dynamischer Generierung

  • Nach dem Hinzufuegen eines Artikels llms.txt pruefen: Wird der neue Artikel angezeigt?
  • Ist die angezeigte Inhaltsanzahl korrekt? Stimmt die Zahl bei „All Articles (27)" mit der tatsaechlichen Anzahl veroeffentlichter Artikel ueberein?
  • Sind unveroeffentlichte Artikel ausgeschlossen? Sicherstellen, dass Entwuerfe und geplante Beitraege nicht angezeigt werden

Validierungstools

Stand April 2026 gibt es keinen offiziellen llms.txt-Validator. Die Validierung ist jedoch auf folgenden Wegen moeglich:

  • Von ChatGPT oder Claude lesen lassen: Fragen wie „Lies https://ihreseite.de/llms.txt und erklaere mir, worum es auf dieser Website geht"
  • Markdown-Previewer: Den Inhalt von llms.txt in einen Markdown-Previewer einfuegen und pruefen, ob die Struktur korrekt gerendert wird
  • SEO-Audit-Tools: Einige SEO-Audit-Tools beginnen, die Existenz von llms.txt zu ueberpruefen

9. Praxisbeispiele von llms.txt auf echten Websites

Werfen wir einen Blick auf Trends bei Websites, die llms.txt bereits eingefuehrt haben.

Merkmale von Websites mit llms.txt-Einfuehrung

Website-TypVerbreitungGrund
KI-bezogene Dienste und ToolsHochDie KI-Branche selbst hat ein hohes LLMO-Bewusstsein
Technische DokumentationHochBedarf, der KI Informationen korrekt zu vermitteln
Tech-BlogsMittelHohe Sensibilitaet fuer technische Trends
UnternehmenswebsitesNiedrigBekanntheit noch gering
E-Commerce-WebsitesNiedrigStrukturierte Daten (JSON-LD) haben Vorrang

Merkmale einer guten llms.txt

  • Knappe und verstaendliche Beschreibung — Das Fachgebiet der Website ist auf einen Blick erkennbar
  • Alle Inhalte mit Zusammenfassung aufgelistet — Die KI kann das Gesamtbild erfassen
  • Kategorie-System angegeben — Die Informationsstruktur wird sichtbar
  • Dynamisch generiert — Stets auf dem aktuellen Stand

Merkmale einer schlechten llms.txt

  • Nur Website-Name und Kontakt — Zu wenig Information, um der KI beim Verstaendnis zu helfen
  • Volltexte aller Inhalte hineinkopiert — llms.txt ist ein „Inhaltsverzeichnis", kein „Volltext". Dafuer gibt es llms-full.txt
  • Veraltete Informationen belassen — Wenn „10 Artikel" angegeben sind, tatsaechlich aber 50 existieren, schadet das der Glaubwuerdigkeit
  • Vertrauliche Informationen enthalten — Faelle, in denen Admin-URLs oder API-Schluessel eingetragen sind

FAQ

F. Wird meine Website ohne llms.txt nicht in KI-Suchergebnissen angezeigt?

Nein, auch ohne llms.txt kann KI Ihre Website crawlen und in Suchergebnissen anzeigen. llms.txt ist lediglich eine „Hilfsdatei fuer das KI-Verstaendnis". Allerdings kann die KI durch die Bereitstellung die Struktur und den Inhalt der Website genauer erfassen, was die Wahrscheinlichkeit erhoeht, in KI-Suchen zitiert zu werden. Es ist vergleichbar mit sitemap.xml im SEO — es funktioniert auch ohne, aber mit ist es vorteilhafter.

F. Hat llms.txt einen Sinn, wenn KI-Crawler ueber robots.txt blockiert werden?

Wenn in robots.txt User-agent: GPTBot o. Ae. mit Disallow gesperrt ist, crawlt dieser Bot die Website nicht. Allerdings ist llms.txt selbst unabhaengig von den robots.txt-Regeln. Es ist moeglich, dass KI auf anderem Weg (z. B. wenn ein Nutzer die URL direkt einfuegt) auf llms.txt zugreift. Wenn KI-Crawler bewusst blockiert werden, ist es konsequent, auch auf die Bereitstellung von llms.txt zu verzichten.

F. In welcher Sprache sollte llms.txt geschrieben werden?

Fuer mehrsprachige Websites auf Englisch. Fuer einsprachige Websites ist die Sprache der Website ebenfalls akzeptabel. Die Spezifikation und Beispiele sind ueberwiegend auf Englisch, was es fuer mehrsprachige Websites als neutrale Sprache zur logischsten Wahl macht. Wenn der Inhalt einer Website jedoch vollstaendig in einer Sprache ist, ist es akzeptabel, llms.txt in dieser Sprache zu verfassen. Die fuehrenden LLMs verarbeiten die meisten Sprachen mit hoher Genauigkeit, und die Nutzer werden in der Sprache der Website anfragen, wodurch konsistente Antworten erzielt werden.

F. Gibt es eine Groessenbeschraenkung fuer llms.txt?

Es gibt keine explizite Beschraenkung in der Spezifikation. In der Praxis wird jedoch empfohlen, unter 50 KB zu bleiben. Selbst bei Websites mit Hunderten von Artikeln passen Titel und einzeilige Zusammenfassungen problemlos in 50 KB. Fuer Volltextinhalte sollte eine separate Datei llms-full.txt bereitgestellt werden.

F. Wie haeufig sollte aktualisiert werden?

Bei dynamischer Generierung werden bei jeder Anfrage die aktuellsten Informationen ausgegeben — das ist kein Thema. Bei statischen Dateien ist die Aktualisierung bei jeder Inhaltsaenderung ideal. Mindestens einmal im Monat sollte geprueft und aktualisiert werden. Wenn die Gefahr besteht, dass eine statische Datei veraltet, ist der Wechsel zur dynamischen Generierung empfehlenswert.

F. Hat es Auswirkungen auf SEO?

llms.txt hat keinen direkten Einfluss auf traditionelles SEO (Google-Suchranking). Google verwendet den Googlebot zum Crawlen von HTML und beruecksichtigt llms.txt nicht als Rankingfaktor. Allerdings kann es die Wahrscheinlichkeit beeinflussen, in KI-Suchen zitiert zu werden — etwa in AI Overviews (KI-Antworten in Googles Suchergebnissen), ChatGPT oder Perplexity. Es sollte als Massnahme auf einer anderen Ebene als traditionelles SEO betrachtet werden — naemlich als LLMO.

F. Gibt es WordPress-Plugins dafuer?

Stand April 2026 gibt es bereits einige WordPress-Plugins zur automatischen Generierung von llms.txt. Allerdings variieren Funktionsumfang und Qualitaet erheblich. Wenn ein Plugin verwendet wird, sollte der generierte Inhalt unbedingt ueberprueft werden. Alternativ genuegen wenige Dutzend Zeilen Code in der functions.php — eine Umsetzung ohne Plugin ist problemlos moeglich.