Die 14 besten Technical Writing Konferenzen 2026
Vorbereitung auf 2026: Content-Lektionen von den größten Konferenzen 2025
Entdecken Sie wichtige Lektionen für Technical-Communications-Teams, die wir von großen Konferenzen 2025 gelernt haben, darunter LavaCon, tcworld und KMWorld. Vom Schreiben für KI über zentrale Agentic-AI-Anwendungsfälle bis hin zum Nachweis des Dokumentationswerts – diese Erkenntnisse sind wichtig für jede Dokumentationsstrategie.
Inhaltsverzeichnis
- Erkenntnis 1: Technical Writer müssen für KI schreiben
- Schreiben mit Kontext kommt allen zugute
- Best Practices sind nach wie vor wichtig, brauchen aber ein KI-Upgrade
- Informationsarchitektur als Leitplanke für KI nutzen
- Erkenntnis 2: Agentic AI ist da ... Was müssen Technical Writer wissen?
- Konkrete Agentic-AI-Anwendungsfälle
- Wie man Wissenssilos für Agentic AI verbindet
- Erkenntnis 3: Teams müssen den Geschäftswert der Dokumentation nachweisen
- Was sollten Teams messen und wie kann KI helfen?
- Abschließende Erkenntnisse von den größten Konferenzen 2025
Hinweis: Dieser Blogartikel wurde aus seiner Originalversion übersetzt und kann geringfügige Abweichungen enthalten. Auch die im Text enthaltenen Zitate wurden übersetzt.
Von LavaCon über tcworld bis KMWorld – die Event-Saison zum Jahresende 2025 war vollgepackt mit einzigartigen Networking-Möglichkeiten, mutigen Erkenntnissen und konkreten Tipps zur Bewältigung gängiger Dokumentationsherausforderungen. Wir haben die wichtigsten Erkenntnisse dieser drei Konferenzen zusammengetragen. Es sollte nicht überraschen, dass KI weiterhin ein Hauptthema ist, mit besonderem Schwerpunkt auf dem Aufstieg von Agentic AI und wie diese technische Dokumentationsteams Mehrwert liefern wird. Schauen wir uns das genauer an!
Erkenntnis 1: Technical Writer müssen für KI schreiben
Mit dem Aufstieg von Agentic AI und generativer Suchmaschinenoptimierung müssen Dokumentationsteams nun Inhalte erstellen, die zwei Zielgruppen effektiv bedienen: Menschen und KI-Systeme. Es geht nicht darum, separate Content-Streams zu erstellen. Vielmehr müssen Autoren bestehende Praktiken anpassen, um explizite, strukturierte und kontextreiche Dokumentation zu entwickeln, damit sowohl KI als auch Menschen den Wert des Inhalts verstehen.
Schreiben mit Kontext kommt allen zugute
Auf dem Component Content Alliance Panel von LavaCon, „Die Rolle von strukturiertem Content und DITA in Agentic AI und RAG„, waren sich die Sprecher einig, dass KI nicht scheitert, weil Inhalte fehlen, sondern weil sie oft mehrdeutig oder implizit sind. Wie Rob Hanna (Precision Content) bemerkte: „Eine Maschine braucht mehr von diesem guten, von Menschen geschriebenen Inhalt für den Kontext. […] Wir erlauben unseren menschlichen Lesern ständig, über unsere Inhalte zu halluzinieren, und das wird erwartet. Richtig? Wenn wir also Halluzinationen bei Maschinen reduzieren wollen, müssen wir auch Halluzinationen bei Menschen reduzieren.“ Die Panelteilnehmer stellten die gängige Annahme infrage, dass Menschen implizite Informationen leicht interpretieren, Kontext ableiten und Lücken füllen können. Noz Urbina (Urbina Consulting) hob in ähnlicher Weise hervor, dass Menschen oft mehr mit unklaren Inhalten kämpfen, als sie zugeben wollen. Gut strukturierter, expliziter Content kommt beiden Zielgruppen zugute.
Wenn Sie für Maschinen schreiben, müssen Sie sehr explizit sein…
Wenn Sie für Menschen schreiben, wissen Sie nicht […], welche Brille die Leute tragen, welche Filter sie verwenden, von denen Sie nichts wissen, die Kontext oder Inhalt vorfiltern […]. Wenn Sie für eine Maschine schreiben, müssen Sie diesen Kontext bereitstellen, um das klarzustellen. Wenn Sie also klar für Maschinen schreiben können, werden die Menschen auch aus diesem Kontext interpretieren […].
Wiegert Tierie
VP Strategic Accounts, RWS
Best Practices sind nach wie vor wichtig, brauchen aber ein KI-Upgrade
In seinem LavaCon-Vortrag „Die Kuratoren der Wahrheit: Wissen im KI-Zeitalter aufwerten“ unterstrich Jason Kaufman (Zaon Labs), warum die Anpassung der Schreibpraktiken für KI-geeignete Inhalte wichtig ist. Er beschrieb, wie KI in einem Test mit einer scheinbar einfachen Aufgabe zu kämpfen hatte: eine Information aus einem zweiseitigen PDF zu extrahieren. Trotz eines faktischen Dokuments fehlte der Kontext, den die KI benötigte, um die richtige Antwort zu interpretieren. Obwohl dies nur ein Dokument war, verlassen sich viele Unternehmen stark auf PDFs, sodass die Skalierung dieses Problems auf Hunderte von Dateien zu erheblicher KI-Verwirrung und Halluzinationen führen kann.
Die Lösung ist einfach eine Weiterentwicklung bestehender Best Practices. „Jetzt befinden wir uns sozusagen in einer Zeit, in der wir sowohl für Menschen als auch für Maschinen schreiben, und die gute Nachricht ist, dass viele der Best Practices, die wir bereits anwenden, einen Teil davon unterstützen„, bemerkte Kaufman. Seine Empfehlung ist, dass Dokumentationsteams ihre Inhalte durch eine KI-Linse prüfen und relevante Richtlinien jetzt in Styleguides integrieren.
Wenn Sie das noch nicht getan haben, schauen Sie sich wirklich an, was das für Ihr Unternehmen bedeutet, und beginnen Sie damit, diese Best Practices in Ihre Styleguides zu integrieren und sie heute auf die Inhalte anzuwenden. Wir alle machen Tagging. Hoffentlich fügen wir Kontext hinzu.
Jason Kaufman
CEO, Zaon Labs
Bei KMWorld hoben Michael Greenhow (Ondexx) und Simon Sorrell (KMS Lighthouse) auch den Wert strukturierten Schreibens für das KI-Inhaltsverständnis in der Multi-Speaker-Session „Brancheneinblicke: KI & zukünftige Arbeitsräume“ hervor. Das Aufteilen von Inhalten in dedizierte Themen, die mit dem breiteren Dokumentationsthema übereinstimmen, trägt zu erhöhter Klarheit, Konsistenz und Kontext bei – all das ist für das Computerverständnis von Vorteil. Für Wissensteams, die noch keine strukturierten Schreibwerkzeuge in ihre Content-Produktion integriert haben, könnte jetzt der richtige Zeitpunkt sein.
Informationsarchitektur als Leitplanke für KI nutzen
Auf der tcworld präsentierte Rahel Anne Bailie (Altuent) ein Framework für die Implementierung von „IA für KI„. Eine starke Informationsarchitektur, die architektonische, semantische und redaktionelle Dimensionen umfasst, reduziert direkt KI-Halluzinationen, Mehrdeutigkeiten und Ungenauigkeiten. Wenn Dokumentation durch Wissensgrafen, Taxonomien und konsistente redaktionelle Konventionen organisiert wird, erzielen KI-Systeme höhere Erfolgsraten bei der ersten Abfrage.
Als beispielsweise eine britische Bank diese strukturellen Leitplanken einführte, stieg die Erstantwort-Genauigkeit des Chatbots von 65 % auf über 80 %.
Sie wollen nicht, dass diese 12 Millionen […] Menschen auf einem Chatbot nach etwas suchen, keine Antwort erhalten und dann sagen: ‚Hm, ich rufe einfach das Callcenter an'. Richtig? Wenn Sie in die Millionen gehen, möchten Sie wirklich, dass die Leute sich so viel wie möglich selbst helfen. Sie möchten also diese strukturellen Leitplanken hinzufügen.
Rahel Anne Bailie
Content Solutions Director, Altuent
Diese strukturellen und semantischen Leitplanken leiten das KI-Verhalten, indem sie klaren Kontext und Organisation bereitstellen. Teams können Informationsarchitektur, semantische Tags und sogar Retrieval-Augmented-Generation-(RAG)-Modelle nutzen, um dem großen Sprachmodell (LLM) Kontext und Orientierung zu geben. Sie erklärte, dass diese Art von Struktur das Verständnis des LLM für Inhalte verbessert, sodass „dann die Maschinen wissen, wie man es liest, genauso wie wir wissen, wie man es liest„. Als Ergebnis produziert das KI-Modell genauere, relevantere Antworten.
Je mehr Struktur Sie haben, desto weniger Halluzinationen werden Sie haben, desto weniger Mehrdeutigkeit und desto weniger Antwort-Ungenauigkeiten.
Rahel Anne Bailie
Content Solutions Director, Altuent
Abschließend skizzierte Bailie den klaren Geschäftswert, den Unternehmen durch das Hinzufügen von Strukturebenen zu ihren Inhalten für das KI-Verständnis erhalten:
- Eindeutige Unterscheidung zwischen Konzepten und Terminologie;
- Kategorisierung von Inhalten für bessere Empfehlungen;
- Beschleunigung der Content-Auffindbarkeit;
- Verbesserung der Antworten auf Chatbot-Anfragen;
- Aufdeckung von Geschäftseinblicken.
Erkenntnis 2: Agentic AI ist da … Was müssen Technical Writer wissen?
Agentic AI ist ein heißes Thema auf den Konferenzen 2025. Von der Frage, was es ist, über die Funktionsweise bis hin zu Best Practices und Anwendungsfällen – die Vortragenden behandelten alles, was die Teilnehmer wissen wollten.
Um den Einstieg zu erleichtern, brachte Noz Urbina bei LavaCon alle auf denselben Stand, indem er erklärte, wie Agentic AI funktioniert. „Die Idee bei Agentic AI ist, dass Sie Agentic AIs als kleine Arbeiter in einem Workflow einsetzen können, und sie haben die Fähigkeit, Maßnahmen zu ergreifen, Entscheidungen zu treffen und Dinge zu tun, ohne auf menschliche Eingabeaufforderungen zu warten.“ Rob Hanna fügte hinzu: „Bei Agentic AI handelt es sich nicht einfach um einen Entscheidungsbot. Es ist kein Algorithmus. Tatsächlich arbeitet es mit Ergebnissen und Zielen und findet Ihren besten Satz oder Handlungsverlauf, um Ergebnisse und Ziele zu erreichen.“
Konkrete Agentic-AI-Anwendungsfälle
Das „Was“ von Agentic AI zu verstehen, ist interessant; das „Wie“ zu verstehen, ist essenziell.
Im Panel „Die Rolle von strukturiertem Content und DITA in Agentic AI und RAG“ bei LavaCon sprach Harald Stadlbauer (NINEFEB GmbH) darüber, wie man Agentic AI zur Optimierung des Geschäftswerts einsetzt. Er erwähnte, dass „wir sehen, dass Sie Agenten erstellen, die sich sehr speziellen Aufgaben widmen„. Zusätzlich hob Stadlbauer hervor, dass „etwa 40-60 % der Arbeit eines Technical Writers der Rechercheteil ist. Und der Rechercheteil ist etwas, das wirklich am besten durch Agentic AI adressiert wird.“
Stadlbauer war nicht der Einzige, der umsetzbare Ratschläge dazu gab, wie technische Dokumentationsteams Agentic AI implementieren sollten. In seiner tcworld-Session „Wie man die Erfahrung, Qualität und Vertrauenswürdigkeit KI-gestützter technischer Content-Bereitstellung verbessert“ skizzierte Kees van Mansom (Accenture) drei wertvolle Agentic-AI-Anwendungsfälle:
- Einfache KI-Unterstützung: Teams können KI-unterstütztes Authoring für einfache Content-Transformationen nutzen. Um beispielsweise gut geschriebene Dokumentation zur Behebung eines einfachen Produktproblems zu erhalten, können Technical Writer eine Eingabeaufforderung für ein LLM erstellen, um Schritt-für-Schritt-Anleitungen in vereinfachtem technischem Englisch (STE) zu generieren und Grafiken für jeden Schritt zu erstellen.
- Gemeinsames Verfassen mit einem KI-Agenten: Wenn Technical Writer Fachexperten (SMEs) interviewen, bereiten sie weiterhin den Fragebogen vor und führen das Live-Interview durch, um spezifische, notwendige Informationen zu sammeln. Ein KI-Agent transkribiert dann das Interview-Skript. Anschließend nutzen KI-Agenten das Transkript, um neue Dokumentationsthemen direkt im CCMS gemäß den Schreibrichtlinien des Unternehmens zu entwickeln. Es markiert die Themen als validierungsbereit und sendet Nachrichten an Autoren und den SME, um eine Überprüfung anzufordern.
- Dokumentation aktuell halten: KI-Agenten können auch eingehende Änderungsanfragen für Dokumentation bearbeiten. Ein Agent analysiert den betreffenden Inhalt und bestimmt, wo Updates erforderlich sind. Er unterstützt dann beim Verfassen und Aktualisieren der betroffenen Inhalte direkt im CCMS.
Wie man Wissenssilos für Agentic AI verbindet
Wie wir festgestellt haben, geht Agentic AI über die Automatisierung einzelner Aufgaben hinaus, um Maßnahmen zu ergreifen und Ziele unter Verwendung mehrerer Systeme und Datenquellen zu erreichen. Für technische Dokumentationsteams, die überlegen, wie diese Technologie implementiert werden soll, wird die Herausforderung schnell deutlich. Wie können Teams das über Systeme verstreute Wissen (z. B. in CRMs, Helpdesks, CCMSs und anderen Tools) mit dem Agentic-System verbinden, damit die KI-Agenten darauf zugreifen können?
In seiner tcworld-Präsentation „Prozessautomatisierung mit Content und Agentic AI“ untersuchte Fabrice Lacroix (Fluid Topics) diese Herausforderung und beschrieb die aufkommende Technologie, die dies möglich macht: das Model Context Protocol (MCP). Anstatt Daten aus jedem Silo zu extrahieren und direkt in Eingabeaufforderungen einzufügen, verändert MCP, wie das LLM mit bestehenden Systemen interagiert. Beim Entwerfen eines Agentic-Workflows geben Sie die Tools oder Endpunkte an, die der Agent konsultieren kann. Das Modell bestimmt dann zur Laufzeit, ob es zusätzliche Informationen benötigt und welches System abgefragt werden soll.
Wir senden einfach eine Frage an das LLM, nur die Anfrage, und dann lassen wir das LLM entscheiden, ob es Wissen benötigt. Und dann wird das LLM dynamisch zu den Silos kommen und nach dem Wissen fragen.
Fabrice Lacroix
CEO, Fluid Topics
Mit Zugriff auf eine Liste verfügbarer Tools kann das LLM die Fähigkeiten jedes Tools prüfen, entscheiden, welche Daten oder Operationen es benötigt, und nach Bedarf mit diesen Systemen interagieren. MCP macht dies möglich, indem es eine gemeinsame Kommunikationsebene zwischen KI-Agenten und Unternehmensanwendungen bereitstellt. In Lacroix‘ eigenen Worten: „MCP ist die Sprache, das Protokoll für LLMs, um mit Ihren Anwendungen in Ihrem Unternehmen zu sprechen und nach Informationen zu fragen.„
Das Protokoll löst das kritische Problem, dass zwar die meisten modernen Anwendungen APIs haben, aber jede ihre eigene „Lokalsprache“ spricht. MCP fungiert hingegen als universeller Übersetzer – was Lacroix eine „Lingua Franca“ nennt –, der den Bedarf an benutzerdefinierten Konnektoren reduziert und es Agentic-AI-Systemen ermöglicht, auf konsistente Weise mit verschiedenen Anwendungen zu arbeiten.
Das ist die Sprache, die so konzipiert wurde, dass sie von jeder Anwendung zwischen Anwendungen und LLMs gesprochen werden kann.
Fabrice Lacroix
CEO, Fluid Topics
Das ist groß für Dokumentationsteams, die zuvor mit Entwicklern und IT zusammenarbeiten mussten, um komplexe RAG-Systeme zu bauen. Sehr bald werden sie Agentic-Workflows erstellen, die intelligent die Informationen ziehen, die ein LLM benötigt – direkt aus dem zentralen Content-Repository, Support-Tickets, CRM oder jeder anderen Anwendung. Während diese Technologie noch im Aufstieg begriffen ist, wird sie zunehmend populärer, da „heute jede App einen MCP-Server auf ihre APIs aufsetzt„.
Erkenntnis 3: Teams müssen den Geschäftswert der Dokumentation nachweisen
Das Tracking von Content-Metriken innerhalb von Dokumentationsteams bleibt wichtig, um zu verstehen, was erstellt, priorisiert und aktualisiert werden soll. Teams müssen jedoch darüber hinausgehen und Dokumentationsergebnisse direkt mit dem Geschäftswert verbinden, der Führungskräften wichtig ist. Mehrere Konferenzen skizzierten, wie dies zu tun ist, wobei KI-Tools zur Unterstützung der Analyse eingesetzt werden, wenn möglich.
Was sollten Teams messen und wie kann KI helfen?
Vishal Gupta (Cisco) umriss die Herausforderung klar in seiner Präsentation „Qualität quantifizieren: Navigation durch die Herausforderungen der Messung von Content-Impact“ bei LavaCon. „Content-Qualität zu definieren, ist unkompliziert. Die Herausforderung liegt jedoch darin, sie konsistent über unser gesamtes Content-Set zu messen.“ Er teilte seinen Ansatz für Dokumentationsanalysen, der sich auf drei Bereiche konzentriert, die Unternehmen messen müssen:
- Kundenbewertungen zur Erfassung direkten Benutzerfeedbacks
- Self-Service-Metriken durch Case-Deflection, um zu verfolgen, wie effektiv Inhalte Benutzer befähigen, autonom Antworten zu finden
- Dokumentationsmängel, die durch Kundenberichte und interne Audits identifiziert werden
Er schlägt dann vor, mit KI zu innovieren, um diese Datenpunkte zu analysieren, Muster zu identifizieren und Erkenntnisse in umsetzbare Kategorien einzuordnen:
- Klare Dokumentationsfehler;
- Verbesserungsmöglichkeiten (z. B. fehlende Konfigurationsschritte);
- Fälle, die nicht mit der Dokumentation zusammenhängen.
Qualität ist eine Reise und Messung ist ein Kompass, der sicherstellt, dass wir in die richtige Richtung segeln.
Vishal Gupta
Content Designer, Cisco
Wie man Analyseergebnisse mit der Führung teilt
Wie Sofiya Minnath (Wheelo Technologies) in ihrer LavaCon-Präsentation „Content-Metriken mit KI neu denken: Geschäftswert beweisen und strategische Entscheidungen treffen“ teilte, ist das Tracking von Analysen nur die halbe Schlacht. Sie erklärte, wie die nächste Herausforderung darin besteht, zu wissen, wie man diese Informationen der Führung präsentiert, sobald ein Team interessante Daten gesammelt hat.
Stattdessen empfiehlt sie Teams, ihren Ansatz zu ändern und Metriken mit Geschäftswert zu verbinden. Minnath erklärte, dass dies hilft zu veranschaulichen, wie Dokumentationsteams als „strategische Wachstumstreiber“ statt als „Kostenstellen“ dienen können.
Um ihren Punkt zu demonstrieren, skizzierte sie einige klare Wege, um Metriken mit Geschäftsergebnissen zu verbinden:
- Anstatt zu sagen „die Metriken zeigen schnellere Onboardings“, sagen Sie „wir sparen X Zeit, was zu schnellerer ARR-Erfassung führt“.
- Anstatt die Reduzierung von Tickets zu erwähnen, erklären Sie, wie viele Kosten dank weniger Tickets vermieden wurden.
- Teams können sogar untersuchen, welcher Prozentsatz der Menschen Inhalte im Verkaufsprozess nutzt, und diese Zahl als „Umsatzeinfluss“ verwenden.
Abschließende Erkenntnisse von den größten Konferenzen 2025
Wie erwartet lieferten diese Konferenzen wertvolle Einblicke und konkrete Beispiele, um technischen Dokumentations- und Wissensteams zu helfen, neue Herausforderungen und aufkommende Chancen direkt anzugehen. Für Teams, die an ihrem Event-Zeitplan 2026 arbeiten, um noch mehr Einblicke zu erhalten, schauen Sie sich unsere Liste der Top-Technical-Writer-Konferenzen an.
Bei so vielen großartigen Sprechern ist es unmöglich, alle Weisheiten in einen Artikel zu packen. Hier sind einige unserer anderen Lieblingszitate von den Vor-Ort-Konferenzen:
- „Wenn Ihr Inhalt nicht für alle ist, ist er für niemanden.“ (Dipo Ajose-Coker, RWS)
- „[Kunden] interessiert das nicht. Sie interessieren sich nicht für unsere organisatorischen Probleme. Sie interessieren sich dafür, das Problem zu lösen, das sie verärgert.“ (Sarah O’Keefe, Scriptorium)
- „Content ist König, Kontext ist Königreich.“ (Stefan Gentz, Adobe)
- „Wenn Sie gut für Maschinen schreiben, erhalten Sie per Definition besseren Content für Menschen. Es ist der explizite Content oder explizite Zweck versus der implizite oder unterstellte Zweck, der den Unterschied ausmacht.“ (Lief Erikson, Intuitive Stack)
- „KIs haben Einschränkungen, sie haben kognitive Einschränkungen genauso wie organische Intelligenzen, und wenn Sie mehr Struktur, mehr Kontext, mehr Spezifität bereitstellen können, um einzugrenzen, worauf sie sich konzentrieren sollten, dann werden sie besser abschneiden.“ (Noz Urbina, Urbina Consulting)
Vereinbaren Sie eine kostenlose Fluid-Topics-Demo mit einem Produktexperten.
Die 14 besten Technical Writing Konferenzen 2026
Agentische KI vs. Generative KI: Ein Leitfaden für technische Redakteure