Der AI-Act fokussiert grds auf trainierte KI-Systeme, enthält aber auch Vorgaben für Daten, mit denen das KI-System trainiert wird (Trainingsdaten). Art 10 AI-Act normiert für KI-Hochrisikosysteme bestimmte Qualitätskriterien, denen Trainingsdaten entsprechen müssen.1 Der Hintergrund davon ist, dass die Trainingsdaten maßgeblich für die vom KI-System produzierten Ergebnisse sind. Das betrifft nicht nur die Genauigkeit der Vorhersagen der KI, sondern insb auch die Vermeidung von Bias: „Schlechte“ Trainingsdaten können zu einem falschen Output des KI-Systems führen, was sich auch in einer Diskriminierung bestimmter Personengruppen manifestieren kann.2 Trainingsdaten wohnt daher ein Schädigungspotential inne. Sowohl für Geschädigte als auch für Anbieter von KI-Systemen stellt sich damit die Frage, was bei einem durch Trainingsdaten verursachten Schadenfall gilt und wie Ansprüche durchgesetzt bzw abgewehrt werden können. Damit befasst sich dieser Beitrag anhand eines Beispielfalls. Abgestellt wird dabei auf die (aus gegenwärtiger Sicht) bevorstehende Rechtslage, insb die Richtlinie über KI-Haftung3 sowie die aktualisierte Produkthaftungs-RL4.