Ein Gastbeitrag von Ing. Matthias Jünger, MBA , garden-shop.at

Inhaltsverzeichnis
Jahrzehntelang hat Google & Co. auf Keyword-Suchen konditioniert; KI will Briefings: Kontext, Constraints, Beispiele. Der Aufwand ist real – und messbar: Nach Tests landet der Gewinner-Prompt in der Schublade und wird zum Hebel. So entsteht Prompt Engineering Marketing.
„Garbage in, garbage out“ – nur dass es heute um Briefings geht, nicht um Suchwörter. Wir wurden jahrelang auf Keywords trainiert; in der Praxis performen Ads 2025, wenn ich der KI klare Ziele, Constraints und Beispiele vorsetze – ja, mit Sprudel an konkreten Vorgaben. Als Orientierungsanker nutze ich Checklisten, denn gute Struktur spart Iterationsschleifen und hebt CTR und Conversions spürbar (1).
In Fachkreisen wird das als Prompt Engineering bezeichnet: Aus Ziel => Kanal => Format wird ein wiederholbares Prompt-Framework, das man testet, verfeinert, versioniert. Der Aufwand ist real, manchmal nervig, aber messbar; nach ein paar Fehlversuchen liegt der Gewinner-Prompt in der Schublade und skaliert Kampagnen über Search, Social und Video – genau so ist’s mir mehrfach passiert! In diesem Beitrag zeige ich, wie ich Prompts strukturiere, welche Kanal-Templates funktionieren und wie man mit sauberem Testing die Lifts in CTR und Conversion-Rate belegt – ohne Hokuspokus, mit Handwerk.
Prompt Engineering im Performance-Marketing 2025: Warum es die Metriken kippt
Ich habe lange geglaubt, dass Creative-Ideen der seltene Engpass sind – bis klar wurde: Der eigentliche Bottleneck sitzt im Prompt. Sobald ich von „mach mal ’nen Anzeigentext“ auf echte Briefings mit Ziel, Persona, Nutzenversprechen, Tonalität und Constraints gewechselt bin, sind die Kurven sichtbar hochgegangen: mehr Hook-Dichte in den ersten 100 Zeichen, sauberere CTA-Varianten, weniger Streuverlust. Genau hier liegt der Unterschied zwischen netter KI-Spielerei und prompt engineering marketing als Performance-Hebel. In den Teams zeigt sich das ganz pragmatisch: Wer Prompts wie Mini-Briefings schreibt, produziert konsistent bessere RSA-Headlines, Primary Texts und Asset-Ideen – kanalübergreifend. Und ja, das kostet am Anfang Nerven; aber die Lernkurve ist steil, weil man Versionen vergleicht, Muster erkennt und die eigenen „Gewinner-Prompts“ baut (2).
Mechanisch betrachtet ist’s kein Zauber, eher Handwerk mit Sprudel:
- Ziel definieren (Conversion vs. Engagement),
- Offer schärfen,
- Marke als Systemvorgabe fixieren,
- Formatgrenzen notieren (Zeichenlimit, Policies),
- 2-3 Few-Shots reingeben
und danach knallhart testen. Die Halluzinationsgefahr sinkt, die Markenstimme bleibt stabil, und die CTR profitiert, weil die ersten Zeilen endlich knacken, statt zu schwimmen (3). So wächst prompt engineering marketing vom Bauchgefühl zur wiederholbaren Praxis: Prompts werden versioniert, mit UTM sauber getrackt, schlechte Varianten fliegen raus, gute wandern in die Schublade und werden skaliert. Zugegeben, manchmal ist’s frustrierend, wenn eine Variante komplett danebenliegt – aber genau diese Fehlversuche beschleunigen das Tuning. Am Ende steht ein Set aus belastbaren Prompts, das Kampagnen schneller in die Performance-Zone hebt.
Das Ads-Prompt-Framework: Von Ziel => Kanal => Format (7 Bausteine)
Ich betrachte Prompt Engineering in sieben Bausteinen, die wie ein kurzes Creative-Briefing klingen:
- Ziel/KPI (CTR, CVR, CPA, ROAS) und die klare Conversion-Aktion,
- Kanal/Placement (Search, PMAX, Meta, TikTok, YouTube),
- Format/Constraints (z. B. RSA-Headline-Limits, Policy-Verbote, Hook-Länge),
- Persona & Intent (Problem, Nutzen, Einwand),
- Value Proposition & Proof (Offer, Social Proof, USP),
- Ton & Markenstimme (präzise Leitwörter, was nie gesagt werden darf),
- Struktur & Few-Shot-Beispiele, die zeigen, wie „gut“ aussieht.
Erst als ich alles kompakt in diese Reihenfolge gegossen habe, kippte die Qualität: weniger Halluzination, mehr Relevanz im ersten Satz, spürbar bessere Hook-Dichte. Klingt simpel, ist Arbeit, aber genau diese Disziplin verwandelt Einfälle in verlässliche Performance.
In der Praxis schreibe ich Prompts modular:
„Befehl/Task: …; Kontext: Persona X, Problem Y; Constraints: 3 RSA-Headlines ≤ 30 Zeichen, 2 Descriptions ≤ 90, ohne Superlative; Beispiele: [2 gute, 1 schlechte Referenz]; Ausgabeformat: JSON mit keys {headline, description}“,
und plötzlich werden Varianten vergleichbar, debug-fähig und messbar (3). Wichtig ist die Datenkante: Wenn Produktfeatures, Preisanker oder Einwände explizit reingegeben werden, sinkt der Rauschen-Anteil und die Texte „legen“ schneller an der Suchintention an, während die Markenstimme stabil bleibt, weil sie als Systemvorgabe mitläuft. Selbst banale Dinge wie verbotene Wörter oder ein fixes CTA-Vokabular im Constraint-Block sparen mir später fünf Runden Feinschliff.
Video zum Thema „AI-Driven Marketer, Marketer’s Guide to Advanced Prompt Engineering (01.05.2024)“
Ein Aha-Moment war eine PMAX-Runde, in der ich nur die Reihenfolge der Bausteine geändert habe: zuerst Offer geschärft, dann Persona, danach Ton – Ergebnis war eine 18 % höhere CTR bei gleichem Spend, und ja, davor war’s frustrierend, weil zwei Iterationen komplett daneben lagen; passiert, macht aber schneller. Seitdem landen Gewinner-Prompts in einem kleinen „Repo“ mit Versionierung, sprechenden Namen wie „RSA_hw-angebot_v3_fixbrand“, und einer Notiz, warum sie gewonnen haben; das klingt pedantisch, ist aber die Schublade, aus der ich kampagnenweit skaliere, während schwächere Varianten archiviert oder bewusst als Kontrast getestet werden. So wird das Framework kein Dogma, sondern ein Werkzeugkasten, der je Kanal angepasst wird – ohne dass jedes Mal bei Null begonnen werden muss.
Channel-Playbooks & Templates: Search, Social, Video, Display
Search & PMAX: Für RSA schreibe ich Prompts wie Mini-Briefings mit klaren Constraints –
„Ziel: Lead; Persona: B2B-Marketer mit Budgetdruck; Offer: 14-Tage-Test; Constraints: 3 Headlines ≤ 30 Zeichen, 2 Descriptions ≤ 90, keine Superlative, Markenstimme ‘nüchtern-präzise’; Few-Shots: [2 gute, 1 schlechte]“.
Vorher stand da oft nur „Bitte um einen Text für Anzeige XY“.
Ergebnis: mehr Hook-Dichte in H1, sauberere Path-Felder, und die Descriptions treffen den Einwand („zu wenig Zeit“) statt Features aufzulisten. Für PMAX baue ich das Gleiche kanalübergreifend: „Asset-Buckets“ (Value, Proof, Objection-Handling), Shots für Bild/Video-Texte, plus ein JSON-Ausgabeformat, damit Varianten messbar bleiben. Kleiner Trick, der schon öfter gerettet hat: ein „Policy-Guardrail“ im Prompt („vermeide Gesundheits-Versprechen, keine ROI-Garantien“), dadurch weniger Abbrüche in der Freigabe und stabilere CTR/QS. Ein Before/After, das mich selbst überrascht hat: Before – „Schreibe 10 Headlines für Prompt Engineering Marketing“. After – „Erzeuge 10 RSA-Headlines ≤ 30 Zeichen, mit je einem starken Verb, ohne Buzzwords, 30% mit Zahl, 20% mit Klammern, 50% mit Intent-Bezug [‘testen’, ‘skalieren’]; gib die Top-3 anhand ‘Suchintention hoch’ und ‘Unique Angle’ aus.“ Die Top-3 waren sofort nutzbar, die restlichen sieben als Testmaterial.
Social, Video & Display: Auf Meta splitte ich Primary-Text, Headline, Description hart und schreibe explizite Hook-Anweisungen („erste 90 Zeichen = Problem + Nutzen in 7 Wörter“), plus Tonvarianten („klar“, „kollegial“, „technisch“). TikTok braucht Tempo: „Gib 5 Hook-Sätze ≤ 6 Wörter, dann 3 Script-Beats à 1 Satz, dann CTA, alles ohne Fachjargon; Style: leicht ironisch, aber nicht zynisch“. Video-Prompts funktionieren bei mir, wenn Struktur drin ist: Cold-Open → Problem → Mini-Proof → CTA; dazu ein Block „B-Roll-Ideen“ als Stichworte. Display halte ich ultra-konkret: „3 Banner-Copy-Varianten je 25/40/60 Zeichen, je eine mit Zahl, eine mit Klammer, eine mit Micro-CTA; Markenwörter: erlaubt = X, verboten = Y.“ Frust gab’s, wenn der Output trotz Briefing generisch blieb – lag fast immer an fehlenden Few-Shots oder an weichgespülten Constraints; nachgeschärft, zack, besser. Am Ende landen die Gewinner-Prompts als Templates im Repo („meta_pt-hook90_v4“, „tt_hook-beats_v2“, „yt_coldopen_v3“), inklusive Notizen, warum sie gewonnen haben. Aus fertigen Testrunden wird so ein skalierbarer Werkzeugkasten, der kanalübergreifend wiederholt, gemessen und gepflegt wird – ohne jedes Mal bei Null starten zu müssen.
Testen, Messen, Automatisieren: Von Prompt-Varianten zu Lifts in CTR & CR
Mein Ablauf ist langweilig, aber er skaliert: Ich generiere 5-10 Prompt-Varianten je Ziel-Kanal, schicke sie durch ein kleines QA-Gatter (Policy-/Brand-Check, Lesbarkeit ≤ 8. Klasse, Intent-Fit), label’ jede Version sauber mit Name, Datum, KPI-Hypothese und UTM-Parametern, dann gehen sie in klar getrennte A/B-Slots mit stabilem Budget und Mindestlaufzeit; Multivariates Testing nutze ich nur, wenn Asset-Pools groß genug sind, sonst produzieren die Zufallseffekte nur Nebel. Gelernt: KI-Outputs sind nicht immer deterministisch, also friere ich Constraints ein (Zeichenlimits, Ton, Verbotene Wörter), hänge 2 – 3 Few-Shots dran und messe vorn CTR/Hook-Rate, in der Mitte die Micro-Conversions (Scroll, 10-Sek.-View, Add-to-Cart) und hinten CR, CPA, ROAS – nicht alles gewinnt überall, aber Muster werden schnell sichtbar. Frustig wird’s, wenn ein vermeintlicher Sieger nach Skalierung kippt; dann war’s meist Targeting-Drift oder ein zu enger Prompt, also zurück ins Repo, Hypothese anpassen, nächste Runde, mit Sprudel.
Automatisierung ist mein Sicherheitsgurt gegen Chaos: Ein kleines Prompt-Repo (Git-Ordnung reicht) mit Versionierung, Readme und „Why it won“-Notizen; ein Generator, der aus Bausteinen (Ziel, Persona, Offer, Constraints, Few-Shots) JSON ausspuckt; eine Checkliste, die vor Aktivierung CI/Brand-Voice, rechtliche Claims und sensible Begriffe prüft – ja, stupide, aber rettet Kampagnen. Für Bewertung nutze ich Paarvergleiche (human + optional LLM-as-judge), score nach Klarheit, Differenzierung, Policy-Sauberkeit, und promoviere nur Varianten, die über beide Welten gewinnen; danach wandert der Prompt in die „Schublade“ mit Tags wie „rsa_hook-problem_v4“ oder „meta_primary_proof_v3“ und ist bereit für die nächste Skalierungswelle. Der Effekt: weniger Halluzination, weniger Freigabe-Stopper, konsistent höhere Hook-Dichte in den ersten Zeilen – und am Ende messbar bessere CTR/CR bei stabilen CPA, genau das, worum es im Prompt Engineering Marketing geht.
Ausblick: Prompt-Engineering als Performance-Hebel
Am Ende bleibt’s simpel: Prompt-Engineering ist kein Zaubertrick, sondern Disziplin mit Hebelwirkung. Wer Ziele, Offer, Ton und Constraints sauber brieft, Few-Shots klug einsetzt und konsequent testet, verwandelt Kreativ-Bauchgefühl in wiederholbare Assets – und hebt CTR, Conversion-Rate und ROAS messbar. Das System lässt sich auf jeden Kanal-Mix anpassen; wichtig sind Guardrails für Marke, Policy und Claims, damit Performance nicht auf Kosten von Brand Safety entsteht.
Jetzt gern ins Machen kommen: das eigene 7-Bausteine-Framework aufsetzen, 5-10 Varianten pro Kanal generieren, fair testen, dokumentieren, skalieren. Bitte auch an Ethik und Recht denken (kein PII, keine irreführenden Versprechen, keine sensiblen Zielgruppen-Stereotype). Erfahrungen, Gewinner-Prompts und Test-Learnings gern in den Kommentaren teilen – das beschleunigt alle!
Kurzporträt des Autors
Matthias Jünger ist seit 2019 Unternehmer und Webentwickler sowie Betreiber der WordPress-Plattformen panda-office.at und garden-shop.at. In seiner Arbeit verbindet er Performance-Marketing mit Prompt-Engineering und entwickelt dafür ein praxiserprobtes 7-Bausteine-Framework, das von klaren Zielen über Tonalität bis zu strengen Constraints reicht. Sein Schwerpunkt liegt auf messbaren Creative-Ops: strukturierte Prompts, Few-Shots, saubere Versionierung und Tests, die sich direkt in Kennzahlen wie CTR, Conversion-Rate und ROAS niederschlagen. Besonderes Augenmerk legt er auf Brand-Safety und Compliance-Guardrails, damit Performance nicht zulasten der Marke geht. Heuer hat er sich intensiv dem Publizieren gewidmet und zahlreiche Gastbeiträge zu Marketing-, Web- und KI-Themen verfasst. Darüber hinaus unterstützt er Teams beim Aufbau von Prompt-Repos, QA-Prozessen und einem disziplinierten Testing-Setup – pragmatisch, datenorientiert und immer mit Blick auf Skalierbarkeit.
Quellen
(1) HubSpot. (2025, 9. Juli). Prompt Engineering: Die Schlüsselkompetenz für Marketing-, Sales- und Service-Teams. https://blog.hubspot.de/marketing/prompt-engineering-anthropic
(2) Distart Education GmbH. (2025, 20. Januar). KI Prompting: Was ist Prompt Engineering und wie kannst Du es lernen? https://blog.distart.de/ki-prompting
(3) Marketingworld AG. (2024, 7. Februar). Prompt Engineering: Was es ist und wie du es für dein Marketing nutzen kannst. https://marketing.ch/content-marketing/prompt-engineering-was-es-ist-und-wie-du-es-fuer-dein-marketing-nutzen-kannst/