TU-Forscher Patrick Schramowski für herausragende Veröffentlichung geehrt
DARMSTADT – Der KI-Forscher Patrick Schramowski von der TU Darmstadt ist bei einer der weltweit wichtigsten Konferenzen zu Künstlicher Intelligenz für eine herausragende Veröffentlichung ausgezeichnet worden. Die Ehrung mit einem „Outstanding Paper Award“ wurde bei der Eröffnung der Tagung „NeurIPS 2022“ in New Orleans bekanntgegeben.
Der TU-Doktorand wurde als Co-Autor eines Datensatzes geehrt, mit dem die nächste Generation von KI-Modellen trainiert werden kann. Der Clou dabei: KI selbst wurde benutzt, um potenziell unangemessene Inhalte vorzufiltern.
„Ich freue mich unglaublich über diese Ehrung, aber ich freue mich noch mehr darüber, dass unser Datensatz bereits eine breite Anwendung findet“, sagte Schramowski. „Ein Beispiel dafür ist das öffentlich zugängliche generative Deep-Learning-Bild-System ‚Stable Diffusion‘, das anhand von Textbeschreibungen detaillierte Bilder generieren kann.“
Der Gewinn „ist wie ein Sechser im Lotto“
Schramowski ist wissenschaftlicher Mitarbeiter im Fachgebiet Künstliche Intelligenz und Maschinelles Lernen von Professor Kristian Kersting am Fachbereich Informatik der Technischen Universität Darmstadt. Er arbeitet zudem im TU-Forschungsverbund „Third Wave of Artificial Intelligence“ (3AI) des hochschulübergreifenden Hessischen Zentrums für Künstliche Intelligenz (hessian.AI) mit, das seinen Sitz an der TU Darmstadt hat. „Auf der ‚NeurIPS‘ einen ‚Outstanding Paper Award‘ zu gewinnen ist wie ein Sechser im Lotto“, sagte Kersting. „Es ist eine der wichtigsten Auszeichnungen auf dem Gebiet der KI. Das ist ein Super-Erfolg für 3AI, die TU Darmstadt und hessian.AI.“
Die von Schramowski und seinen Mitautorinnen und Mitautoren vorgelegte Veröffentlichung präsentiert den größten öffentlichen multimodalen Datensatz in Bild und Text. Multimodale Datensätze sind im maschinellen Lernen entscheidend für die Entwicklung einer „Allgemeinen KI“, die universell einsetzbar sein und über eine Art „gesunden Menschenverstand“ verfügen soll. Ein Beispiel dafür ist das multimodale und sogar multitaskingfähige System „Gato“ des Unternehmens DeepMind von Google: Es kann unter anderem Bilder beschriften, chatten, Videospiele spielen, Blöcke mit einem Roboterarm stapeln und vieles mehr.
An den Einsatz großer Datenmengen knüpfen sich indes häufig Bedenken wegen möglicher anstößiger Inhalte. Um diesem Problem entgegenzutreten, ergänzte TU-Wissenschaftler Schramowski den vorgelegten Datensatz mit einem vortrainierten KI-Modell, das potenziell beleidigende, bedrohliche oder verstörende Inhalte filtern kann. So kann die menschliche Arbeit reduziert werden. „Mit dem Datensatz und unseren Annotationen können wir zum Beispiel nun besser untersuchen, wie sich anstößige Inhalte auf KI-Modelle auswirken, und hoffentlich zurückverfolgen, welche Daten für unerwünschte Verzerrungen in KI-Modellen verantwortlich sind“, erklärte der Forscher.
(PM)