Suche

KI in den Regulatory Affairs: Chance und Gefahr

Mensch und Maschine: Die Regulatory Affairs brauchen beides. Wir berichten von Trends, Chatbots und Kooperationen.

KI wird immer öfter für MDR-Anträge genutzt

Künstliche Intelligenz ist am Boomen. Large Langage Models (LLMs) wie ChatGPT, Claude oder Gemini haben in den letzten Jahren nicht nur unglaublich an Fähigkeiten dazugewonnen, sondern genießen auch eine immer höhere Popularität.

Ob in der Wissenschaft, in den öffentlichen Medien, in privaten Kontexten oder auch in den Regulatory Affairs: Die Unterstützung  durch digitale Text-, Bild-, und Audiogeneratoren ist nicht mehr wegzudenken.

Gerade in den Regulatory Affairs nimmt die Nutzung von Chatbots momentan zu. Das ist naheliegend: Die Anforderungen der MDR oder einzelner Normen erscheinen oft komplex, unübersichtlich oder schlicht bürokratisch-trocken.

Da ist es praktisch, wenn eine KI Dokumente formatiert, Nachweise bündelt oder ganze technische Dokumentationen zusammenstellt. Aber Obacht! Denn die Elektronenhirne sind nicht wirklich „intelligent“.

Menschliche Intelligenz bleibt unverzichtbar

KI-Systeme sind super, um große Datenmengen zu durchforsten, zusammenzufassen oder um Menschen bei der Prüfung wichtiger Dokumente zu unterstützen.

Jedoch „denken“ sie nicht. Die weitverbreiteten LLM’s basieren auf statistischer Datenanalyse: Sie spucken aus, was am wahrscheinlichsten ist. Sie erkennen Fehler nicht, weil sie „falsch“ sind, sondern weil sie „statistisch unüblich“ sind.

Kommerzielle Chatbots sind darüber hinaus darauf trainiert „gefällige“ Ergebnisse zu produzieren. Sie generieren Outputs, die das Gefühl geben, richtig zu sein – auch wenn das eventuell nicht immer der Fall ist. Das liegt schlicht an der Art und Weise ihrer internen Struktur und ihrer Entwicklung.

Deswegen können die besten KIs manchmal die einfachsten Fehler nicht erkennen – ein Umstand, der so manche KI-Nutzer*innen bereits zur Weißglut getrieben hat; wie einige von Ihnen sicher wissen.

Mensch-Maschine-Kooperation ist die beste Wahl

Wie wissenschaftliche Studien beschreiben, liegt die Meister*innenschaft darin, die Kompetenzen von Menschen, mit denen der KI zu ergänzen.

Das bedeutet: Expertenwissen ist wichtiger denn je: Die Fehler, die eine KI-generieren kann sind oft versteckt und fallen kaum auf. Daher ist es unerlässlich, dass Personen mit fundiertem fachspezifischem Know-How die KI-Ergebnisse prüfen bzw. die Prompts für den Chatbot formulieren.

In den Regulatory Affairs besonders kritisch:

Gerade weil die Regulatory Affairs nach Präzision verlangen, gerade weil die normativen Anforderungen oft kontraintuitiv oder unübersichtlich sein können – gerade dort, wo Fehler nicht herausstechen, sondern sich einschleichen können ohne direkt aufzufallen – ist es wichtig, dass Menschen die Arbeit der Maschinen kontrollieren. Insbesondere weil in den Regulatory Affairs kleine Fehler gravierende (und kostspielige) Konsequenzen haben können.

Und um eine wirkungsvolle Kontrolle ausüben zu können, braucht es Expert*innen, die potenziellen Fehler der KI direkt erkennen können.

Fazit: KI ja, aber mit Vorsicht

Die BEO BERLIN befürwortet KI-gestützte Arbeit in den Regulatory Affairs ausdrücklich. Allerdings sehen unserer Expert*innen auch, dass KI-Systeme (noch) kein Expertenwissen ersetzen können – spätestens bei den Zulassungsbehörden fallen die KI-generierten Fehler auf.

Daher empfehlen wir, eine individuell angepasste KI-Unterstützung. Immer im Kontext der Fähigkeiten, die bereits in Ihrem Unternehmen verfügbar sind und den Anforderungen der Prozesse, die optimiert werden sollen.

Wenn Sie ein Beratungsgespräch suchen oder Expert*innen benötigen, die die Ergebnisse einer KI „korrekturlesen“, wenden Sie sich an die BEO BERLIN!


1 Sterne2 Sterne3 Sterne4 Sterne5 Sterne (3 Bewertung(en), durchschnittlich: 5,00 aus 5)
Loading...

Mehr zu dieser Kategorie