Zwischen KI‑Boom und Regulierung
Dr. Martin Müller • 7. März 2026
Was der EU AI Act für Lebensmittel‑ und Gesundheitsunternehmen bedeutet

Künstliche Intelligenz ist in der Lebensmittel‑ und Gesundheitsbranche längst Alltag: Sie schreibt Texte, analysiert Daten, bewertet Dokumente und unterstützt Entscheidungen. Gleichzeitig schafft der EU AI Act einen verbindlichen Rechtsrahmen, der den Einsatz von KI in sensiblen Bereichen wie Lebensmittelsicherheit, Gesundheit und Verbraucherschutz reguliert.
Damit stellt sich für Unternehmen nicht mehr die Frage „Nutzen wir KI?“, sondern: „Wie setzen wir KI so ein, dass wir fachlich besser werden – ohne uns rechtlich angreifbar zu machen?“ Gerade für Lebensmittelunternehmen, Hersteller von Nahrungsergänzungsmitteln, FSMP‑Anbieter und Gesundheitsdienstleister wird diese Frage zur strategischen Kernaufgabe.
Besonders kritisch wird es überall dort, wo KI‑gestützte Analysen in sicherheitsrelevante oder rechtlich bedeutsame Entscheidungen einfließen: Verkehrsfähigkeitsprüfungen, Sicherheitsbewertungen, Risikoanalysen, interne Stellungnahmen oder Gutachten, die später gegenüber Behörden, Gerichten oder Vertragspartnern verwendet werden. Hier wirken KI‑Systeme schnell faktisch wie eine „Entscheidungsinstanz“ – genau das möchte der EU AI Act verhindern.
KI darf ein leistungsfähiges Werkzeug sein, aber sie darf Entscheidungen nicht verdeckt steuern. Die Verantwortung bleibt beim Menschen. Der EU AI Act setzt dafür einen klaren Rahmen: Risiken müssen bewertet werden, Transparenz und menschliche Aufsicht sind sicherzustellen, und zentrale Entscheidungen sind nachvollziehbar zu dokumentieren.
Warum der EU AI Act auch „normale“ Lebensmittelunternehmen betrifft
Viele Unternehmen haben den EU AI Act zunächst als Thema für große Tech‑Konzerne oder Hochrisiko‑Medizinprodukte wahrgenommen. In der Praxis ist der Anwendungsbereich jedoch deutlich breiter: KI wird bereits heute in ganz normalen Lebensmittelunternehmen, in der Nahrungsergänzungs‑ und Gesundheitsbranche eingesetzt – oft ohne dass dies intern konsequent dokumentiert wird.
Typische Einsatzfelder in Lebensmittel‑ und Gesundheitsunternehmen sind z.B.:
Damit stellt sich für Unternehmen nicht mehr die Frage „Nutzen wir KI?“, sondern: „Wie setzen wir KI so ein, dass wir fachlich besser werden – ohne uns rechtlich angreifbar zu machen?“ Gerade für Lebensmittelunternehmen, Hersteller von Nahrungsergänzungsmitteln, FSMP‑Anbieter und Gesundheitsdienstleister wird diese Frage zur strategischen Kernaufgabe.
Besonders kritisch wird es überall dort, wo KI‑gestützte Analysen in sicherheitsrelevante oder rechtlich bedeutsame Entscheidungen einfließen: Verkehrsfähigkeitsprüfungen, Sicherheitsbewertungen, Risikoanalysen, interne Stellungnahmen oder Gutachten, die später gegenüber Behörden, Gerichten oder Vertragspartnern verwendet werden. Hier wirken KI‑Systeme schnell faktisch wie eine „Entscheidungsinstanz“ – genau das möchte der EU AI Act verhindern.
KI darf ein leistungsfähiges Werkzeug sein, aber sie darf Entscheidungen nicht verdeckt steuern. Die Verantwortung bleibt beim Menschen. Der EU AI Act setzt dafür einen klaren Rahmen: Risiken müssen bewertet werden, Transparenz und menschliche Aufsicht sind sicherzustellen, und zentrale Entscheidungen sind nachvollziehbar zu dokumentieren.
Warum der EU AI Act auch „normale“ Lebensmittelunternehmen betrifft
Viele Unternehmen haben den EU AI Act zunächst als Thema für große Tech‑Konzerne oder Hochrisiko‑Medizinprodukte wahrgenommen. In der Praxis ist der Anwendungsbereich jedoch deutlich breiter: KI wird bereits heute in ganz normalen Lebensmittelunternehmen, in der Nahrungsergänzungs‑ und Gesundheitsbranche eingesetzt – oft ohne dass dies intern konsequent dokumentiert wird.
Typische Einsatzfelder in Lebensmittel‑ und Gesundheitsunternehmen sind z.B.:
• Unterstützung bei Literatur‑ und Studienrecherche
• Auswertung großer Datenmengen (z.B. Reklamationen, Qualitätsdaten, Monitoring)
• Entwurf von Texten (Claims, Produktbeschreibungen, Fachtexte)
• Unterstützung bei Risikoanalysen und internen Bewertungen
Sobald diese KI‑gestützten Bewertungen Einfluss auf Entscheidungen mit Gesundheits‑ oder Sicherheitsbezug haben, stellt sich die Regulierungsfrage. Der EU AI Act folgt einem risikobasierten Ansatz: Je höher das potenzielle Risiko für Gesundheit, Sicherheit oder Grundrechte, desto strenger die Pflichten.
Viele Anwendungen in der Lebensmittelbranche werden nicht als Hochrisiko‑System eingestuft. Die Erwartung an Unternehmen ist dennoch klar: Wer KI nutzt, soll wissen, wofür, wie und mit welchen Grenzen – und das nachvollziehbar dokumentieren. Freiwillige Governance‑Strukturen und interne Richtlinien gelten ausdrücklich als guter Weg, um verantwortlichen Umgang mit KI zu zeigen.
Fünf Prinzipien für verantwortbaren KI‑Einsatz
Damit KI im Lebensmittel‑ und Gesundheitsbereich fachlich sinnvoll und rechtlich verantwortbar eingesetzt werden kann, haben sich fünf Grundprinzipien bewährt:
1. Transparenz
Es sollte klar dokumentiert sein, wo und wofür KI eingesetzt wird und welche Aufgaben Mensch und System jeweils übernehmen. Das betrifft insbesondere Gutachten, Verkehrsfähigkeitsprüfungen, FSMP‑Projekte und interne Regulatory‑Workflows.
Viele Anwendungen in der Lebensmittelbranche werden nicht als Hochrisiko‑System eingestuft. Die Erwartung an Unternehmen ist dennoch klar: Wer KI nutzt, soll wissen, wofür, wie und mit welchen Grenzen – und das nachvollziehbar dokumentieren. Freiwillige Governance‑Strukturen und interne Richtlinien gelten ausdrücklich als guter Weg, um verantwortlichen Umgang mit KI zu zeigen.
Fünf Prinzipien für verantwortbaren KI‑Einsatz
Damit KI im Lebensmittel‑ und Gesundheitsbereich fachlich sinnvoll und rechtlich verantwortbar eingesetzt werden kann, haben sich fünf Grundprinzipien bewährt:
1. Transparenz
Es sollte klar dokumentiert sein, wo und wofür KI eingesetzt wird und welche Aufgaben Mensch und System jeweils übernehmen. Das betrifft insbesondere Gutachten, Verkehrsfähigkeitsprüfungen, FSMP‑Projekte und interne Regulatory‑Workflows.
2. Datenqualität
Wichtige Schlussfolgerungen müssen sich auf belastbare, zitierfähige Quellen stützen. KI kann beim Auffinden, Strukturieren und Zusammenfassen helfen – entscheiden muss der Fachmensch. Für Unternehmen bedeutet das: Quellen sichern, KI‑Texte nie als „Originalquelle“ behandeln.
3. Menschliche Aufsicht
Jeder KI‑Output, der in Entscheidungen oder Gutachten einfließt, ist fachlich zu prüfen und nur insoweit zu übernehmen, wie er nachvollziehbar verantwortet werden kann. In sensiblen Bereichen fordert der EU AI Act ausdrücklich eine wirksame menschliche Aufsicht.
4. Nachvollziehbarkeit
Zentrale Aussagen sollen sich unabhängig von der KI aus Daten, Quellen und Erfahrung ergeben. Deshalb sind Originalquellen, Berechnungen und fachliche Überlegungen zu dokumentieren – nicht nur der fertig formulierte Text.
5. Rollenklärung Mensch/KI
Intern muss klar geregelt sein, wer fachlich und rechtlich Verantwortung trägt. KI ist nur Werkzeug; die inhaltliche Verantwortung liegt immer bei der Person, die ein Gutachten, eine Stellungnahme oder ein Konzept unterzeichnet.
Dokumentation und KI‑Governance im Unternehmen
Für Unternehmen im Lebensmittel‑ und Gesundheitsbereich lohnt es sich, den Einsatz von KI frühzeitig zu strukturieren. Viele Anforderungen des EU AI Act lassen sich in bestehende Qualitäts‑ und Compliance‑Strukturen integrieren.
Bewährt haben sich u.a. folgende Bausteine:
• KI‑Verzeichnis: Übersicht, welche KI‑Tools im Unternehmen wofür genutzt werden (z.B. Recherche, Textentwürfe, Risikoanalysen).
• Leitlinien („Do’s und Don’ts“): Kurz festhalten, was erlaubt ist (z.B. Unterstützung bei Entwürfen) und was nicht (z.B. ungeprüfte Übernahme von Bewertungen).
• Prüf‑ und Freigabeprozesse: Etwa Vier‑Augen‑Prinzip für KI‑gestützte Gutachten oder Risikobewertungen, bei Bedarf mit Einbindung externer Sachverständiger.
Besondere Vorsicht ist geboten bei:
• gesundheitsbezogenen Aussagen und Claims
• Risikobewertungen und Verkehrsfähigkeitsprüfungen
• rechtlichen Einordnungen
• Angeboten für verwundbare Zielgruppen wie Kranke, Kinder oder Senioren
Unternehmen, die diese Elemente schrittweise etablieren, sind für den EU AI Act gut vorbereitet – unabhängig davon, ob ihr konkreter Anwendungsfall später formal als Hochrisiko‑System gilt oder nur leichten Transparenzanforderungen unterliegt.
Wie ich Ihr Unternehmen unterstützen kann
Für viele Lebensmittel‑ und Gesundheitsunternehmen ist es hilfreich, den tatsächlichen KI‑Einsatz einmal von außen zu betrachten:
• Wo wird heute bereits KI eingesetzt – bewusst oder „nebenbei“ (z.B. im Marketing, Regulatory, Qualitätsmanagement)?
• Welche Prozesse sind besonders sensibel (Regulatory, Produktentwicklung, Claims, FSMP‑Strategien, Gutachten)?
• Welche wenigen, einfachen Regeln und Dokumentationsschritte würden reichen, um Risiken deutlich zu reduzieren?
Genau hier setze ich an – z.B. mit:
• einem kompakten KI‑Regulatory‑Check für Lebensmittel‑ und Gesundheitsunternehmen
• der Begleitung beim Aufbau schlanker, praxisnaher Leitlinien
• der Integration von KI‑Werkzeugen in bestehende Prozess‑ und QM‑Strukturen
Ziel ist nicht, KI zu verhindern, sondern sie so einzusetzen, dass sie die fachliche Qualität erhöht, Prozesse effizienter macht – und gleichzeitig Ihre rechtliche Position stärkt.
Seit 2024 sammle ich in Projekten mit Lebensmittel‑ und Gesundheitsunternehmen konkrete Praxiserfahrung im Einsatz von KI. Dieses Wissen stelle ich meinen Kundinnen und Kunden gezielt zur Verfügung – von der ersten Bestandsaufnahme bis zur Umsetzung im Tagesgeschäft.
Wenn Sie den Einsatz von KI in Ihrem Unternehmen oder in konkreten Projekten reflektieren und im Sinne des EU AI Act zukunftssicher gestalten möchten, sprechen Sie mich gerne an.









