KI ist schnell. Sehr schnell. Während viele Unternehmen noch überlegen, wie sie ChatGPT, Midjourney & Co. sinnvoll einsetzen können, hat die Technologie längst den Alltag von Marketing, Content-Produktion und Softwareentwicklung erobert. Doch mit dieser Geschwindigkeit wächst auch die Unsicherheit. Was ist erlaubt? Was riskant? Und wo endet Innovation und beginnt das rechtliche Minenfeld? Genau das war Thema des Vortrags von Prof. Christian Solmecke auf der KI Konferenz 2025 an. Der Titel: „Muss ChatGPT zurück in den Kindergarten? Der neue AI-Act der EU will Künstliche Intelligenz in die Schranken weisen!“ Du hast den Vortrag verpasst? Sichere Dir jetzt die Aufzeichnung!
Statt Panikmache lieferte Solmecke Orientierung. Verständlich, pointiert und mit vielen Beispielen aus der Praxis erklärte er, warum der EU AI-Act kommt, was er regeln soll und was das ganz konkret für Unternehmen bedeutet, die KI heute schon einsetzen oder es planen.
Du möchtest den Vortrag nachträglich ansehen? Kein Problem. Fülle einfach das Formular aus und wir senden Dir das Video „Muss ChatGPT zurück in den Kindergarten? Der neue AI-Act der EU will Künstliche Intelligenz in die Schranken weisen!“ direkt zu.
Warum die EU KI regulieren will
Zu Beginn seines Vortrags ordnete Solmecke die Entwicklung ein. Innerhalb weniger Tage erreichte ChatGPT über eine Million Nutzer:innen – schneller als jede digitale Anwendung zuvor. Diese Dynamik begeistert, birgt aber auch Risiken. KI-Systeme treffen Entscheidungen, generieren Inhalte und beeinflussen Meinungen – oft ohne transparente Regeln.
Die Europäische Union arbeitet deshalb seit 2021 an einer einheitlichen KI-Verordnung: dem EU AI-Act. Ziel ist es nicht, Innovation zu verhindern, sondern klare Leitplanken zu setzen. Solmecke machte deutlich: Regulierung ist in diesem Fall kein Bremsklotz, sondern ein Versuch, Vertrauen zu schaffen – bei Nutzer:innen ebenso wie bei Unternehmen.
Der AI-Act: Kein Verbot, sondern ein Regelwerk
Ein zentraler Punkt im Vortrag war die Einordnung des AI-Acts. Entgegen vieler Schlagzeilen geht es darin nicht darum, KI pauschal zu verbieten. Stattdessen verfolgt die EU einen risikobasierten Ansatz. KI-Anwendungen werden je nach Gefährdungspotenzial unterschiedlich streng reguliert.
Für Unternehmen bedeutet das: Je sensibler der Einsatzbereich ist – etwa bei automatisierten Entscheidungen mit Auswirkungen auf Menschen –, desto höher sind die Anforderungen. Transparenz, Dokumentation und Kontrolle rücken damit stärker in den Fokus. Solmecke betonte, dass gerade Marketing-, E-Commerce- und Software-Unternehmen früh verstehen sollten, in welche Kategorie ihre KI-Anwendungen fallen.
Wem gehören KI-generierte Inhalte eigentlich?
Besonders spannend für Marketeers und Co.: Der Teil zu urheberrechtlichen Fragen. Wem gehören Texte, Bilder oder Videos, die mit ChatGPT oder Midjourney erstellt werden? Eine scheinbar einfache Frage, die juristisch alles andere als trivial ist.
Solmecke erklärt, dass KI selbst kein Urheber sein kann. Urheberrecht setzt eine menschliche Schöpfung voraus. Doch was bedeutet das für Unternehmen, die KI-generierte Inhalte kommerziell nutzen? Hier kommt es stark auf den menschlichen Anteil an. Je mehr Steuerung, Auswahl und Bearbeitung durch Menschen erfolgen, desto eher lassen sich Rechte begründen. Für die Praxis heißt das: Wer KI nutzt, sollte Prozesse dokumentieren, Prompts nicht unterschätzen und Inhalte nicht ungeprüft übernehmen. KI ist Werkzeug, kein rechtlicher Freifahrtschein.
Haftung: Wer trägt die Verantwortung, wenn etwas schiefgeht?
Ein weiterer zentraler Punkt: Haftungsfragen. Was passiert, wenn eine KI falsche Informationen liefert, diskriminiert oder sogar Schäden verursacht? Solmecke machte klar, dass Verantwortung nicht einfach auf die Technologie abgeschoben werden kann.
In der Regel haften diejenigen, die KI einsetzen oder anbieten. Unternehmen müssen also sicherstellen, dass ihre KI-Systeme überwacht, getestet und sinnvoll eingebettet sind. Der AI-Act verschärft diese Verantwortung zusätzlich, indem er klare Pflichten für Anbieter und Anwender:innen definiert. Wer hier unvorbereitet ist, riskiert nicht nur Imageschäden, sondern auch empfindliche Sanktionen.
Trainingsdaten: Darf KI alles lernen?
Beim Thema Urheberrecht spielen auch die Trainingsdaten eine wichtige Rolle. Darf KI einfach alles nutzen, was im Internet verfügbar ist? Die kurze Antwort: nein. Die lange Antwort ist komplex und wird von Solmecke in seinem Vortrag behandelt. Er erklärt, dass Trainingsdaten rechtlich heikel sind, insbesondere wenn urheberrechtlich geschützte Inhalte ohne Einwilligung genutzt werden. Der AI-Act und bestehende Urheberrechtsregelungen greifen hier ineinander. Unternehmen sollten deshalb genau prüfen, welche KI-Tools sie einsetzen und wie transparent die Anbieter mit ihren Trainingsdaten umgehen.
Einordnung statt Angst: Recht als Enabler für KI-Nutzung
Trotz der vielen juristischen Fallstricke war die Grundbotschaft des Vortrags klar: Recht soll KI nicht verhindern, sondern verantwortungsvoll nutzbar machen. Wer die Regeln kennt, kann sie einhalten und sich dadurch sogar Wettbewerbsvorteile sichern. Solmecke plädierte dafür, rechtliche Fragen früh mitzudenken und KI-Projekte nicht isoliert in einzelnen Abteilungen zu starten. Gerade Marketing, IT und Management müssen hier gemeinsam Verantwortung übernehmen.
Fazit: KI braucht Regeln, Unternehmen brauchen Klarheit
Der Vortrag von Prof. Christian Solmecke auf der KI Konferenz 2025 war ein dringend nötiger Realitätscheck. KI ist gekommen, um zu bleiben. Doch je mächtiger die Technologie wird, desto wichtiger sind klare Regeln, Verantwortlichkeiten und ein grundlegendes Rechtsverständnis. Der EU AI-Act wird den Umgang mit KI verändern – nicht irgendwann, sondern bald. Unternehmen, die sich jetzt damit auseinandersetzen, gewinnen Sicherheit, Vertrauen und Handlungsspielraum.
No Comment