Menschliche Nähe trifft Algorithmus: Künstliche Intelligenz als Partner in der Kinder- und Jugendhilfe

Der Beitrag wurde in Ausgabe 3/2025 publiziert und beinhaltet die Dokumentation der Fachbeiträge des PODIUM 2025.

 

Begrüßung von Martin Adam

Ich begrüße Sie alle herzlich hier in Berlin beim diesjährigen PODIUM und freue mich sehr, dass unsere Veranstaltung wieder so gut besucht ist. Auch freue ich mich sehr, dass es uns offenbar wieder gelungen ist, ein richtig spannendes Thema zu finden. Wir haben uns mit diesem Thema kürzlich schon in Baden-Württemberg beschäftigt. Ja, ich weiß, wir sind im Süden immer ein Ticken voraus. Ganz besonders herzlich begrüßen möchte ich die Senatorin für Bildung, Jugend und Familie in Berlin, Frau Katharina Günther-Wünsch. Wir sind sehr glücklich, dass sie heute hier bei uns sind. Und da Sie zeitlich eng getaktet sind, darf ich Sie jetzt gleich auf die Bühne bitten und Ihnen das Wort geben. Ich wünsche Ihnen und uns eine gute Veranstaltung, die ich jetzt hiermit eröffne.

Grußwort der Senatorin Katharina Günther-Wünsch

Vielen Dank für die freundliche Begrüßung, Herr Adam, und vielen Dank für die Einladung zu Ihrer Bundestagung zu einem – wie Sie zurecht sagen – sehr, sehr spannenden Thema. Ich freue mich sehr, dass Ihre Veranstaltung hier in Berlin stattfindet, und bedauere es gleichzeitig sehr, dass ich nur so kurz bei Ihnen sein kann. Wir haben gleich im Anschluss Senatssitzung, zu der ich natürlich pünktlich erscheinen muss, ich würde aber wahnsinnig gerne den ganzen Tag bei Ihnen bleiben, weil ich das Thema mehr als spannend finde.

Meine sehr verehrten Damen und Herren, ChatGPT und Microsofts Copilot sind heute weit verbreitet,WhatsApp und X haben ihre KI-Anwendungen vor kurzem standardmäßig in ihre Nutzeroberflächen eingebunden. Deshalb macht es wenig Mühe, zu unserem heutigen Thema einen kleinen Test durchzuführen, zum Beispiel in der nächsten Pause oder auf der Heimfahrt. Ich vermute mal, dass die Mehrheit hier im Saal den vielfach ausgezeichneten Film „Systemsprenger“ gesehen hat. Füttern Sie die Künstliche Intelligenz Ihrer Wahl doch einmal mit den – natürlich sehr oberflächlichen – Ausgangsdaten zu seiner Hauptfigur Benni: ein neunjähriges Mädchen mit einem frühkindlichen Trauma, sehr herausforderndem Verhalten, mehreren Schulwechseln, ein Mädchen, das Bindungsangebote kaum annehmen kann und in einer Familie aufgewachsen ist, die unterschiedliche Problemlagen bewältigen muss. Und danachbitten Sie die KI, Ihnen entsprechende Maßnahmen der Kinder- und Jugendhilfe vorzuschlagen. Ich will das Ergebnis jetzt nicht spoilern, aber ich kann sagen: Es lohnt sich, und es ist ausgesprochen lehrreich.

Als Fachleute, die Sie alle sind, werden Sie schnell feststellen, dass die Vorschläge der KI typische Stärken und Schwächen aufweisen. Nun ist die Beschreibung der Ausgangslage auch sehr knappgehalten und dazu noch fiktiv. Aber das Spannungsfeld zwischen Nutzen und Risiken wird schon bei so einem kleinen Test sichtbar. Wir sehen Stärken und Schwächen, die sich generalisieren lassen, wenn wir heute auf einer grundsätzlichen Ebene über „KI in der Kinder- und Jugengendhilfe“ reden wollen und auch reden müssen. Denn eins steht fest, bei allem Hype: Die Künstliche Intelligenz wird kommen als ein umfassender digitaler Megatrend, der alle Bereiche berühren und verändern wird. Und das gilt ganz besonders für die Arbeitswelt, auch die im sozialen Bereich. Es ist unsere Verantwortung, diese Veränderungen gezielt und mit Augenmaß zu gestalten. Dafür müssen wir wissen, worüber wir reden, dafür müssen wir uns dem Thema frühzeitig stellen und uns nicht nur von der technischen Seite her annähern, sondern genauso gezielt von der praktischen Seite, um Ideen und Anforderungen für die Jugendhilfepraxis zu entwickeln.

Deshalb bin ich dem VPK sehr dankbar, dass Sie Ihren Jahreskongress diesem wichtigen Zukunftsthema widmen. Und ich freue mich, Ihnen für Ihren mit Sicherheit sehr spannenden und informativen Tag jetzt noch drei kurze Impulse oder Fragestellungen mitgeben zu dürfen.

Katharina Günther Wünsch beim Podium 2025, Foto von: Meike Discher

Meine sehr geehrten Damen und Herren, lassen Sie mich mit der vermutlich naheliegendsten Frage beginnen. Einer Frage, die wir uns wohl alle intuitiv stellen, und die auch schon der Titel der heutigen Tagung beinhaltet: „Menschliche Nähe trifft Algorithmus“. Wahrscheinlich empfinden Sie es wie die meisten Fachkräfte, die mit Menschen arbeiten, und insbesondere mit Kindern und Jugendlichen: Das funktioniert nicht ohne Empathie! Das funktioniert nicht ohne zwischenmenschliches Einfühlungsvermögen! In der Kinder- und Jugendhilfe geht es konstant um Emotionen, um Beziehungen und zwischenmenschlichen Austausch, um Konflikte, Sorgen, Nöte und Hoffnungen.

Eine erfolgreiche Kinder- und Jugendhilfe muss diese Emotionen in jedem einzelnen Fall individuell wahrnehmen, begreifen und in Lösungen mit einbeziehen. Es ist schwer, sich vorzustellen, wie eine Künstliche Intelligenz zu diesem „Kerngeschäft“ einen relevanten Beitrag leisten soll. KI ist ja per Definition nicht mit echten Emotionen ausgestattet. Um es mit einem bekannten Buchtitel zu sagen: „Ein Algorithmus hat kein Taktgefühl“. Das ist eine Fragestellung, um die es heute sicher noch gehen wird. Und daraus leitet sich unmittelbar mein zweiter Punkt ab.

Wenn das Kerngeschäft der Kinderund Jugendhilfe nicht oder nur sehr begrenzt KI-geeignet ist, wenn wir wissen, dass KI keine Fachkräfte ersetzen kann, wo liegen dann die Potenziale, um Ihre Arbeit zu unterstützen und Sie in Ihrem Alltag zu entlasten? Denn das erwarten wir schließlich ganz generell vom Einsatz Künstlicher Intelligenz in der Arbeitswelt. Ich glaube, dafür gibt es viele Ansatzpunkte. Denn Kinder- und Jugendhilfe ist zwar zuallererst – aber nicht ausschließlich – Arbeit mit Menschen. Und ich sage Ihnen das, weil ich selbst aus dem pädagogischen Bereich komme, in dem ich über 15 Jahre gearbeitet habe. Zu Ihrem Arbeitsalltag gehören beispielsweise auch die Entwicklung pädagogischer Konzepte, die Ausrichtung pädagogischer Angebote und sozialpädagogischer Interventionen für den individuellen Einzelfall – dazu gehören Anträge, Formulare und Dokumentationen – oder die Zusammenarbeit und Vernetzung über räumliche und organisatorische Grenzen hinweg. Das sind Pflichten und Aufgaben, die den typischen Einsatzgebieten einer KI schon näherkommen. Eine klassische Fallabrechnung zwischen Amt, Träger und Krankenkasse kann bei der KI in besten Händen sein. Ich selbst erinnere mich an Dokumentationen, an 20-30-seitige Formulare, die ich früher gerne an eine KI abgegeben hätte.Also wenn wir hier einen Schritt weiterkommen – herzlichen Glückwunsch! Ich nehme das Thema gerne mit und werde es entsprechend kommunizieren. Ich beschäftige mich mit dem Thema KI als zuständige Senatorin für Bildung im schulischen Bereich auch zunehmend und insbesondere im Bereich der Diagnostik. Wir werden KI in den kommenden Jahren hier in Berlin im frühkindlichen Bereich in der Sprachdiagnostik in Kitas anwenden, um erste Ansätze für sonderpädagogische Diagnostik umzusetzen. Die Nutzung von KI in diesem Bereich erscheint uns sehr hilfreich, um Erzieher*innen und Pädagog*innen zu entlasten, nicht um alles abzugeben, aber um tatsächlich schneller und effizienter zu werden und die eigentlichen Unterstützungsmaßnahmen schneller ans Kind bringen zu können. Warum soll die KI hier nicht unterstützend zum Einsatz kommen? Und KI ist aktuell auch ein großes Thema in der Schulbildung, da geht es unter anderem um individuelle Lernstandsmessung und – daraus abgeleitet – um die jeweils besten Lernschwerpunkte und Aufgabenstellungen. Das sind typische Bereiche, in denen eine KI ihre Stärken voll ausspielen kann. Und dadurch in Ihrem Arbeitsalltag Entlastung bringt und Ressourcen freimacht, die dann wiederum ins Kerngeschäft fließen können.

Was mir dabei immer wichtig sein wird, und das ist meine letzte Anregung für Ihre Diskussion, ist die Frage der Verantwortung: Wer entscheidet, was geschieht? Da geht es darum, dass die Unterstützung durch KI nicht zu einer Entpersonalisierung Ihrer Arbeit führt. Da geht es darum, dass fachliche Reflexion und professioneller Austausch unverzichtbar bleiben, dass Ergebnisse und Empfehlungen einer KI nicht unbesehen übernommen werden. Es geht darum, welche Gefahren in den vermeintlich objektiven Beiträgen einer KI lauern können, Stichwort: Datenschutz, Stichwort: Reproduktion gesellschaftlicher Stereotype und Vorurteile. Das sind Risiken, die nicht nur im sozialen Bereich diskutiert werden, das sind Fragen, die wir uns als Gesellschaft generell stellen müssen, je verbreiteter Künstliche Intelligenz Anwendung finden wird. Aber in der Kinder- und Jugendhilfe, wo es um persönliche Schicksale und um Entscheidungen geht, die das unmittelbare Aufwachsen von Kindern und Jugendlichen betreffen, müssen wir uns diesen Fragen besonders gründlich und verantwortungsbewusst stellen. Die heutige Tagung bietet dazu eine sehr wertvolle Gelegenheit.

Sehr geehrte Damen und Herren, ich glaube, Sie haben jetzt mehr als genug Stoff ür einen spannenden Tag. Einen Tag, der mit Sicherheit viele Anregungen und Inspirationen bringen wird, auch über Ihren Beruf hinaus. Ich bin schon auf vielen Veranstaltungen gewesen, aber tatsächlich habe ich die spannende Verknüpfung von KI und der Kinder- und Jugendhilfe bisher in dieser Form nicht erlebt. Ich finde das extrem spannend! Frau Reichardt hatte angeboten, mir Ihre Fachzeitschrift „Blickpunkt Jugendhilfe“, in der diese Veranstaltung dokumentiert wird, im Nachgang zuzusenden – darüber würde ich mich wirklich sehr, sehr freuen, weil mich die Ergebnisse Ihrer Tagung überaus interessieren. Die Künstliche Intelligenz ist längst in vielen Lebensbereichen angekommen. Deshalb gilt: je bewusster wir uns damit auseinandersetzen, desto besser. Ich bin überzeugt davon, dass KI ein großer Gewinn für die Kinder- und Jugendhilfe in Deutschland werden kann. Lassen Sie uns diesen Fortschritt gemeinsam gestalten! Zum Wohle aller jungen Menschen, die auf Ihre Angebote und Ihre unverzichtbare Arbeit angewiesen sind. Ich wünsche Ihnen heute und für die Zukunft viel Erfolg. Und ich danke Ihnen sehr dafür, dass Sie sich – mit tatkräftiger Unterstützung des VPK – diesen wichtigen Fragen stellen. Vielen Dank!

Begrüßung und thematische Einleitung von Sophia Reichardt

Vielen Dank, Frau Senatorin Günther-Wünsch, für Ihr Grußwort und Ihre wertschätzenden Worte zum Auftakt unseres diesjährigen PODIUMs. Wir freuen uns sehr, dass Sie – insbesondere vor dem Hintergrund der aktuellen turbulenten Entwicklungen und des sich täglich rasant weiterentwickelnden bzw. verändernden politischen Geschäfts – unserer Einladung gefolgt sind. Vielen Dank natürlich auch an Martin Adam für die herzliche Begrüßung! Auch ich heiße Sie alle hier in Berlin herzlich willkommen und freue mich auf den Austausch zu einem wahrlich aktuellen und wirklich spannenden Thema.

Sophia Reichardt beim Podium 2025, Foto von: Meike Discher

Mich würde ja sehr interessieren, welche Assoziationen und Vorstellungen Sie ganz spontan mit dem Titel unserer heutigen Veranstaltung verbunden haben. „Menschliche Nähe trifft Algorithmus: Künstliche Intelligenz als Partner in der Kinder- und Jugendhilfe“. Wir haben diesmal tatsächlich lange an der Formulierung des Veranstaltungsthemas gefeilt und zugegeben, am Ende wurde der Titel dann doch so konkret, dass er nicht mehr ganz so viel Raum für Spekulationen zulässt. Angefangen haben wir bei unseren Planungen zu dieser Veranstaltung mit dem Thema „KI in der Kinder- und Jugendhilfe“. Und hier wäre zunächst tatsächlich viel Raum für Interpretation. Wie beeinflusst KI den Alltag der Kinder- und Jugendhilfe? Insbesondere: Wie verändert KI das Leben, Denken und Handeln von jungen Menschen? Brauchen wir bald keine Erzieher*innen mehr, sondern überlassen die pädagogische Arbeit Chatbots und virtuellen Betreuer*innen? Welche Herausforderungen oder gar Gefahren ergeben sich aus der stetig steigenden Einflussnahme von KI auf junge Menschen – und uns alle? Vielleicht haben Sie sich kürzlich auch geärgert oder gar erschrocken, als auf den Smartphones der Kinder ein neuer Chatpartner, ein „Freund“, namens Meta AI aufgetaucht ist. Ich persönlich muss zugeben, dass uns das zu Hause wirklich richtig genervt und auch verunsichert hat. Völlig ungefragt taucht so ein virtueller Freund im Smartphone Zwölfjähriger auf und verwickelt diese nach einer völlig harmlosen Hausaufgabenfrage in einen Dialog zu möglichem Kummer und Alltagssorgen. Bedenklich! Ganz sicher wirft der Umgang mit KI insbesondere im Leben von jungen Menschen viele Fragen auf. Sich diesen zu stellen, ist ein Thema, das uns alle längst begleitet und in Zukunft immer stärker begleiten und auch fordern wird. Heute aber – und jetzt komme ich auf Ihre hoffentlich richtige Interpretation des Titels unserer Veranstaltung zurück – soll es ausschließlich um die Vorteile und die vielen äußerst nützlichen Möglichkeiten von Künstlicher Intelligenz im Alltag der Kinder- und Jugendhilfe gehen.

Eins ist auf jeden Fall klar: Künstliche Intelligenz wird in den kommenden Jahren voraussichtlich in weiten Bereichen unseres Lebens Einzug halten und tiefgreifende, teilweise sogar disruptive Veränderungen mit sich bringen. Auch der Bereich der Kinder- und Jugendhilfe wird davon nicht unberührt bleiben. Pädagogische Fachkräfte betreten hier oftmals noch Neuland und stellen sich die Frage, ob diese beiden zunächst so gegensätzlich wirkenden Pole – die vor allem durch menschliche Nähe geprägte Kinder- und Jugendhilfe auf der einen und der kühle Algorithmus einer KI auf der anderen Seite – tatsächlich zueinander passen. So viel schon einmal vorweg: Wir denken ja!

Insbesondere vor dem Hintergrund wachsender administrativer Anforderungen und neuer Aufgaben, die täglich bewältigt werden müssen, erscheinen die Einsatzmöglichkeiten von KI vielversprechend – gleichzeitig werfen sie wichtige Fragen zur Praxis­tauglichkeit auf.

m Rahmen der heutigen Veranstaltung sollen die Grundlagen von KI vermittelt und deren gezielte Anwendung im Alltag der Kinder- und Jugendhilfe diskutiert werden. Dabei werden von unseren Referent*innen gleich unter anderem folgende Themen beleuchtet:

  • Was eigentlich ist Künstliche Intelligenz überhaupt?
  • Welche Chancen, Nutzen und Risiken bringt KI in sich?
  • Wie kann KI speziell in der Kinder- und Jugendhilfe relevant sein und welche positiven Effekte kann KI bewirken?
  • Welche praxisnahen Beispiele und Anwendungsfälle für den erfolgreichen Einsatz von KI in der Jugendhilfe gibt es schon?
  • Welche Datengrundlagen sindsinnvoll für KI-Anwendungen?

Zur Veranschaulichung und Beantwortung all dieser Fragen werde ich nun gleich an unsere KI-Expert*innen übergeben. Wir freuen uns besonders, mit Prof. Dr. Christina Plafky, Prof. Dr. Michael Macsenaere und Daniel Hahn ein Referent*innen-Trio gefunden zu haben, das sich bereits seit vielen Jahren mit der Thematik unserer Veranstaltung beschäftigt und in diesem Zusammenhang auch lange schon eng miteinander im Austausch steht und arbeitet. Deshalb wollen wir heute – anders als in vorangegangen Veranstaltungen – die Beiträge der drei Referent*innen nicht strikt voneinander trennen, sondern diese ineinander übergehen und sozusagen gewissermaßen ineinanderfließen und sich gegenseitig ergänzen lassen. Mir ist noch ganz wichtig darauf hinzuweisen, dass die Referent*innen unbedingt in den Austausch mit Ihnen kommen möchten. Frau Plafky, Herr Macsenaere, Herr Hahn und ich werden Sie also an passender Stelle immer wieder auffordern, Ihre Fragen einzubringen und in den Dialog mit den Referent*innen zu treten.

Jetzt stelle ich alle drei Referent*innen noch ganz kurz vor. Prof. Dr. Christina Plafky ist Professorin für KI und VR in der Sozialen Arbeit an der Berner Fachhochschule. Vorherige Stationen führten Christina Plafky, die u.a. Soziale Arbeit studierte und eine Ausbildung zur Kinder- und Jugendlichentherapeutin absolvierte, u. a. als Professorin an die Ostschweizer Fachhochschule (Leitung der Lehre des Departement Soziale Arbeit), die Duale Hochschule Baden-Württemberg (Leitung des Studiengangs Bachelor in Sozialer Arbeit für Menschen mit Behinderung), als wiss. Leitung des Bereichs Kinder- und Jugendhilfe an das Institut für Soziale Arbeit e.V. in Münster sowie als Bereichsleitung für SOS-Kinderdorf e.V. nach Landsberg am Lech.

Prof. Dr. rer. nat. habil. Michael Macsenaere ist vielen von Ihnen bestimmt schon aus dem wissenschaftlichen – insbesondere dem Wirkungsforschungskontext – der Kinder- und Jugendhilfe bekannt. Herr Macsenaere ist wissenschaftlicher Direktor des Instituts für Kinder- und Jugendhilfe in Essen und forscht als Psychologe zu den Themen Künstliche Intelligenz in der Kinder- und Jugendhilfe, Evaluation in der Sozialen Arbeit, Qualitätsentwicklung und Wirkungsorientierung, ressourcenorientierte Pädagogik sowie Sportpsychologie. Er lehrt an der Johannes Gutenberg-Universität Mainz sowie der Hochschule Niederrhein. Michael Macsenaere ist zudem Autor zahlreicher Publikationen, darunter u.a. des kürzlich erschienen Sachbuches „Künstliche Intelligenz in der Kinder- und Jugendhilfe“, das wir in der letzten Ausgabe von „Blickpunkt Jugendhilfe“ vorgestellt hatten und mit dem sich einige von Ihnen eventuell ja auch auf die heutige Veranstaltung vorbereitet haben.

Komplett wird unsere Expert*innen Runde mit Daniel Hahn, dem stellvertretenden Direktor der Kinder- und Jugendhilfeeinrichtung Haus Nazareth in Sigmaringen, die aktuell rund 200 Kinder und Jugendliche in stationären Wohnformen und in Tagesgruppen betreut. Der ausgebildete Sozialwirt, systemische Einzel-, Paar- und Familientherapeut und Erlebnispädagoge beschäftigt sich seit vielen Jahren mit dem Thema KI im Praxisalltag und unterstützt mit seinem pädagogischen Know-how Forschungsprojekte auf diesem Gebiet.

Nach der Mittagspause, die wir ab 13.00 Uhr geplant haben, setzen wir unsere Veranstaltung bei einem „Markt der Möglichkeiten“ und im Rahmen von sogenannten Vision Spaces fort, die sich als kreative Austauschräume zur praxisnahen Anwendung von aktuellen Projekten und Tools im Bereich KI verstehen. Hier erhalten Sie Einblicke in konkrete Praxisanwendungen von KI in der Kinder- und Jugendhilfe, können diese ausprobieren und sich mit Anwender*innen und Entwickler*innen austauschen. Den Ablauf und die Referent*innen dieses zweiten Teils unseres Veranstaltungstages stelle ich Ihnen im Anschluss an die Mittagspause vor. Jetzt möchte ich an Frau Prof. Dr. Plafky, Herrn Prof. Dr. Macsenaere und Herrn Hahn übergeben und wünsche Ihnen allen spannende Einblicke und Erkenntnisse! Schön, dass Sie alle drei hier sind und herzlich willkommen!

KI in der Kinder- und Jugendhilfe von Prof. Dr. Michael Macsenaere – Vortrag Teil 1

Wir freuen uns sehr, hier bei Ihnen in Berlin zu sein! Herzlichen Dank für die gelungenen Grußworte und die thematische Einführung.

Nun zu unserem Thema: Künstliche Intelligenz in der Kinder- und Jugendhilfe. So richtig in Gang gekommen ist es in unserem Arbeitsfeld noch nicht. Am Horizont ist es aber bereits erkennbar: Einige wenige Einrichtungen setzen KI schon systematisch ein – allerdings ein verschwindend geringer Bruchteil. Vielleicht denken einige von Ihnen deshalb, dass ein ganzer Tag zu einem Thema, das in Ihrer Einrichtung noch gar nicht angekommen ist, anstrengend werden könnte. Oder Sie fragen sich, ob es nicht besser wäre, abzuwarten, bis dieser „Hype“ vorüberzieht. Sie kennen ja das Sprichwort von der Sau, die durchs Dorf getrieben wird. Wir alle haben erlebt, wie plötzlich ein Thema hochkocht, man den Druck verspürt, aufspringen zu müssen und nach sechs, zwölf oder 18 Monaten ist es wieder verschwunden oder etwas ganz anderes setzt sich durch.

Aber: Bei der KI ist das anders. Um dies anschaulich zu machen, habe ich dieses Bild der „Sau durchs Dorf“ einmal mit einer kleinen Parabel aufgegriffen – und dazu mit Hilfe von KI passende Illustrationen erstellen lassen.

Prof. Dr. Michael Macsenaere beim Podium 2025, Foto von: Meike Discher

Zunächst ließ ich die KI eine Sau zeichnen, die durchs mittelalterliche Dorf getrieben wird. Genau so haben wir oft erlebt, wie ein Trend kurz auftauchte, viel Wirbel machte und dann schnell wieder verschwand. Anschließend bat ich die KI, mir eine „schlaue Sau“ zu malen, die nicht gleich wieder davonläuft, sondern sich langsam ins Jugendhilfedorf einschleicht, beobachtet und das Ziel hat, dort zu bleiben. Heraus kam dieses Schweinchen.

Es überlegte, wie es die Dorfbewohner entlasten könnte. Es bemerkte, dass viele im Jugendhilfedorf ungern Berichte, Hilfepläne oder Protokolle schreiben. Also setzte es sich hin und erledigte genau das – schnell und überraschend effizient. Die Bewohner staunten. Als nächstes entdeckte das Schweinchen, dass auch der Dorfarzt überlastet war und nicht immer die richtigen Diagnosen stellte. Auf Basis von Daten und Beobachtungen lernte es dazu und stellte bald mindestens ebenso gute, teils sogar bessere Diagnosen – und das sogar auf eine sehr zugewandte, empathische Art und Weise. Spätestens da wurde klar, dass die Dorfbewohner ein außergewöhnliches Geschöpf in ihrer Mitte hatten.

Manche gingen noch weiter: Wenn die Sau so viel kann – warum sie nicht gleich zum Bürgermeister oder gar König machen? Doch hier entstand eine hitzige Diskussion. Am Ende entschieden sich die Dorfbewohner für einen Mittelweg: Die Sau durfte unterstützen, vor allem bei Routinetätigkeiten, aber die grundlegenden Entscheidungen wollten die Menschen im Dorf weiterhin selbst treffen.

Das ist die zentrale Erkenntnis aus der Parabel: Erstens, KI wird definitiv kommen und bleiben. Zweitens, ihr Einsatz wird sich Schritt für Schritt auf immer mehr Bereiche ausdehnen – zunächst entlastend, später auch qualifizierend. KI wird, wenn sie geprüft und datenschutzkonform eingesetzt wird, in Zukunft nahezu unverzichtbar sein. Diese Technologie eröffnet uns ungeahnte Optionen und wird unsere Arbeit in den nächsten fünf Jahren grundlegend transformieren.

Trotzdem bleibt entscheidend: Wir Menschen müssen die endgültigen Entscheidungen treffen und Verantwortung übernehmen. Nutzen Sie nie ungeprüft das Ergebnis einer KI! Sie sind die verantwortliche Instanz. In der Forschung spricht man hier vom Human-in-the-Loop-Prinzip. Der Mensch ist an mindestens zwei Stellen unverzichtbar: 1) Bei der Bereitstellung der Datengrundlage und beim Input, dem sogenannten Prompt. Eine KI kann immer nur so gut sein wie ihr Input. Die eigentliche Rechenarbeit leistet zwar das neuronale Netz, aber ohne gute Daten und kluge Prompts entsteht kein verlässlicher Output. 2) Auch bei der Bewertung des Outputs und der Entscheidung, wie er weiter genutzt wird, bleibt der Mensch unverzichtbar.

Wir werden später sehen, welche Möglichkeiten uns KI gerade in der Kinder- und Jugendhilfe eröffnet. Auf den ersten Blick wirkt das Ergebnis oft faszinierend. Auf den zweiten Blick zeigt sich jedoch fast immer: Es braucht Nacharbeit. Doch der Aufwand dafür liegt bei entsprechender Kompetenz deutlich unter dem bisher notwendigen Aufwand.

Soweit meine Hinführung zum heutigen Thema. Ich übergebe nun an Dich, lieber Daniel.

KI in der Kinder- und Jugendhilfe von Daniel Hahn – Vortrag Teil 1

Auch ein herzliches Willkommen von meiner Seite! Ich kann sagen, dass ich mich total wohlfühle und das liegt daran, dass ich gehört habe, dass Sie fast alle Praktikerinnen und Praktiker sind. Ich bin es im Übrigen auch und werde auch nie anders sein. Ich glaube das ist das, was uns alle miteinander verbindet und was uns erfüllt. Ich weiß immer gerne, mit wem ich es so zu tun habe, also frage ich mal: Wer von Ihnen ist denn tatsächlich in der direkten praktischen Arbeit tätig? Kann ich mal ein Handzeichen sehen? Okay. Und wie viele von Ihnen haben zusätzlich die Aufgabe, die Einrichtung zu leiten und zu verantworten? Danke, da haben wir sehr viele Meldungen.

Daniel Hahn beim Podium 2025

Was mir heute wichtig ist – und so nenne ich mich immer selbst – ich bin die Stimme aus der Praxis. Ich würde gerne mit einer Geschichte beginnen, die beschreibt, wie wir drei zueinander gefunden haben und warum ich heute hier stehe, und der Meinung bin, dass es gut ist, dass wir miteinander genau an der Stelle in den Austausch kommen. Ich hoffe, Sie sehen es mir nach, dass ich einen kurzen persönlichen Einblick in meine Vita gebe, weil es aus meiner Sicht total wichtig ist, das nachvollziehen zu können. Ich glaube, deswegen erzähle ich das, da es mit Sicherheit an der einen oder anderen Stelle Übereinstimmungen geben könnte mit dem, warum Sie heute hier sitzen. Vor 23 Jahren habe ich im Haus Nazareth in einer Wohngruppe begonnen und dort sieben Jahre lang im operativen Bereich mit voller Leidenschaft im Schichtdienst gearbeitet. Es war eine hochdynamische und spannende Zeit. Und hier springe ich nochmal kurz ein Stück zurück zu dieser Sau, die durchs Dorf getrieben wurde, und frage in die Runde: Wie viele von Ihnen würden am liebsten sagen, es wäre mir total recht, dass diese Sau durch unser Dorf rennt und nicht stehen bleibt, weil ich mich dem Thema KI gegenüber ohnmächtig fühle? Ich bitte um Handzeichen. Okay, ich sehe, Sie alle sind total souverän und wollen sich dem Thema stellen, das finde ich wunderbar. Aber zurück zu meiner Geschichte. Ich habe es in den letzten Jahren dieser hochdynamischen, spannenden und bewegenden Zeit als absolutes Privileg empfunden – und ich glaube das verbindet uns an vielen Stellen – mit Kindern und Jugendlichen, die durch seelische Verletzungen, Enttäuschungen oder Traumatisierungen geprägt wurden, zu arbeiten und diese ein Stück ihres Weges begleiten zu dürfen. Und es war mir dabei immer eine Freude, destruktive Verhaltensmuster, die sich aus dem Erlebten entwickelt haben, durch schöne Momente und pädagogische Interventionen, gemeinsame und vor allem lebensnahe Handlungen zu durchbrechen. Vorhin – da muss ich Michael Macsenaere recht geben – hat mir die Senatorin mit ihrer Haltung und Fachlichkeit aus der Seele gesprochen und ich möchte ihre Worte in etwas anderer Form wiederholen: Der wirksamste Faktor in der Pädagogik, der auch belegt ist, ist die Beziehung und Bindung zu Menschen, zu den Kindern und Jugendlichen. Eine Aufgabe, die ich in den 23 Jahren nie besonders gemocht habe, war die Dokumentation, das Schreiben von Entwicklungsberichten und so weiter. Mir hat es immer riesigen Spaß gemacht, mich mit den Kindern und Jugendlichen zu beschäftigen, aber das dann nachträglich aufzuschreiben, das habe ich wirklich immer vor mir hergeschoben. Dabei handelt es sich bei diesen Dingen um zentrale Prozesse in der Kinder- und Jugendhilfe, die natürlich auch Beteiligung und Partizipation erst ermöglichen und die deutlich machen, welche Schritte der junge Mensch gegangen ist, die dazu beigetragen haben, belastende Erfahrungen ein Stück weit zu heilen bzw. zu lindern. Es ist wahnsinnig wichtig – und das wissen wir alle in der Pädagogik – dass ein multidimensionaler Blick auf das Kind das A und das O ist. Nicht nur der eigene – nach 24 Stunden Dienst oft auch eingeschränkte – Blick, sondern ein multidimensionaler, multiperspektivische Blick durch die Fachkraft, durch das Team oder durch den Fachdienst ist immens wichtig. Und dazu gehört natürlich Dokumentation. Deswegen sind Herr Macsenaere und ich vor über 15 Jahren zusammengekommen.

Hier schließt sich schon einmal der erste Kreis. Herr Macsenaere ist Ihnen allen sicher unter anderem durch seine Wirksamkeitsanalysen in der Kinder- und Jugendhilfe bekannt. Damals haben wir das unter anderem von ihm mitentwickelte Evaluationssystem EVAS eingeführt und damit versucht, die Wirksamkeit von Hilfen, die dokumentiert werden, zu erfassen und im Hinblick auf unterschiedliche Items zu überprüfen.

Die Entwicklung dieses Systems war eine spannende Geschichte, von der wir gerne mehr erzählen würden, aber dazu fehlt uns etwas die Zeit. Es ist natürlich immer schwierig zu sagen, woran messen wir, was ist die Normvorstellung, wie bewerten wir Kinder und Jugendliche. Ich kann mich noch gut erinnern, dass ich damals als Pädagoge überhaupt kein Fan von EVAS war. Es war aber der erste Versuch – und dieser ist Stück für Stück geglückt – Dinge zu standardisieren und zu dokumentieren und egal wie man darüber denkt, dies ist nun einmal der erste Schritt für eine standardisierte, ethisch und moralisch gut austarierte Dokumentation, Bewertung und Evaluation. Wir haben damit angefangen und konnten schließlich mit EVAS ganz viel erreichen. Wir konnten unsere Qualität besser überprüfen – natürlich ist das auch noch nicht der Weisheit letzter Schluss, genauso wie die KI uns definitiv noch keine Ergebnisse produziert, die wir eins zu eins übernehmen können – aber wir konnten Anhaltspunkte durch EVAS gewinnen, die es uns ermöglicht haben, unsere Qualität zu überprüfen und mit Blick auf unsere Kinder Fortbildungen, Weiterbildungen oder Themenschwerpunkte für uns zu setzen. Und hier kommt Frau Plafky ins Spiel. Wir kamen an der Dualen Hochschule in Villingen-Schwenningen bei einer Sitzung des Hochschulrats in Gespräch und Frau Plafky erzählte mir von KI. Ich hatte bis zu diesem Zeitpunkt von KI zwar schon gehört, aber ich hatte keinen blassen Schimmer, was es mit KI tatsächlich auf sich hat. Frau Plafky fragte mich dann, ob ich nicht Lust hätte, mich als eine der ersten Einrichtungen in Deutschland – und hier übertreibe ich nicht – mit emergenzbasierter Entscheidungsfindung, das heißt KI - geschützter Entscheidungsfindung in der Sozialarbeit, auseinanderzusetzen. Hier auf der Folie stehen Fragen, die ich mir damals gestellt habe: Künstliche Intelligenz in der Sozialarbeit? Künstliche Intelligenz in der Jugendhilfe? Emergenzbasierte Entscheidungsfindung? Algorithmen, die uns pädagogische Interventionen aufgrund von Entscheidungsmustern aus der Vergangenheit empfehlen? Für mich hörte sich das damals nach Science-Fiction an. Heute, nur wenige Jahre später, sehen wir, wie uns das Thema KI gerade überrollt. Und was sich in unserem Gespräch damals sehr, sehr schnell herausgestellt hat – und deshalb ist der heutige Tag auch so wichtig – ist, dass die Praxis den Zeitslot, der uns bleibt, bis KI tatsächlich in größerem Umfang Teil unserer Arbeit geworden ist, unbedingt nutzen muss, um sich wirksam in die Entwicklung von KI in der Praxis der Kinder- und Jugendhilfe einzumischen.

Ich selbst verfolge heute nicht nur das Ziel, ausschließlich über KI-Lösungen zu sprechen, die bereits in der Jugendhilfe einsetzbar sind, sondern ich würde mir wünschen, dass wir hier gemeinsam Stück für Stück eine Sensibilität entwickeln und ein Wissen aufbauen und dass wir durch die ethisch-moralische Brille blicken und gemeinsam Ideen entwickeln, wie wir konstruktiv und kritisch auf den Entwicklungsprozess einwirken können. Es wird definitiv keine acht oder zehn Jahre mehr dauern, bis es viele Unternehmen geben wird, die profitorientiert Tools verkaufen werden. Und dann werden wir keine Möglichkeit mehr haben, darauf großen Einfluss zu nehmen. Das will ich nicht erleben! Und das war übrigens mein einziger Grund, für diese Veranstaltung heute zuzusagen.

Ich möchte gerne mit Ihnen auf ein paar Realitäten der Kinder- und Jugendhilfe schauen und dann wieder zurück zum Thema KI kommen. Was sind unsere Realitäten? Wir haben unversorgte Kinder durch fehlende Plätze im stationären Bereich – ich konzentriere mich jetzt einmal auf den stationären Bereich. Wir beobachten an vielen Stellen Überlastungen der Mitarbeiter – das dürfte Ihnen bekannt sein. Das ist Land auf, Land ab das gleiche. Wir haben weiterhin eine Zunahme von Kindern mit besonderen Verhaltensweisen. Hierfür gibt es den Begriff Systemsprenger. Ich finde übrigens, dass es kaum einen mieseren Begriff ür junge Menschen als den Begriff Systemsprenger gibt. Wir sollten gegen die Benutzung dieses Begriffs gemeinsam lobbyieren. Schlimmer als der Begriff Systemsprenger ist nur noch der Begriff Wanderpokal. Für diese Kinder mit besonders herausfordernden Verhaltensweisen müssen wir Systeme anbieten, die sie tragen und Halt und Orientierung bieten. Das ist unsere Aufgabe. Die steigende Zahl an Kindern mit diesen besonderen Herausforderungen löst eine Dynamik in der Kinder- und Jugendhilfe aus und wir Einrichtungen sehen uns mit der Notwendigkeit konfrontiert, unsere Wirksamkeit deutlich zu machen. Dadurch ergibt sich unter anderem eine erhöhte Dokumentationspflicht. Ich habe Ihnen einmal eine Statistik aus unserem Haus Nazareth mitgebracht. Diese Statistik bzw. dieses Diagramm zeigt Ihnen, dass wir im Jahr 2024 – wir haben übrigens eine vollstationäre Platzkapazität von 150 Plätzen – die Aufnahme von insgesamt 486 Kindern ablehnen mussten. Das heißt, dass wir 486 Kindern, die auf einen Platz in einer stationären Unterbringung gewartet haben, keinen solchen Platz anbieten konnten. Das heißt nicht, dass alle 486 Kinder unversorgt geblieben sind – die Jugendämter fragen ja immer gleich mehrere Einrichtungen an – aber keiner kann genau sagen, wie viele dieser Kinder wirklich unversorgt geblieben sind. Der KVJS – unser Landesjugendamt – geht davon aus, dass mindestens die Hälfte dieser Kinder unversorgt bleibt. Die Hälfte! Und so wurde mir damals klar, dass wir bei dem von Frau Plafky vorgeschlagenen Projekt unbedingt mitmachen müssen. Wir müssen uns, wenn wir den Kinderschutz weiterhin aufrechterhalten wollen, dem Thema KI in der Hoffnung stellen, dass wir zum einen ethisch und moralisch mitgestalten bzw. Einfluss nehmen können, und zum anderen tatsächlich irgendwann Hilfe bei unseren täglichen Aufgaben bekommen. Ich rede übrigens nicht vom Fachkräftemangel, sondern schon jetzt von einem Personalmangel. Das heißt, wir steuern auch auf eine Qualitätsabsenkung zu. Ich finde diese Debatte wahnsinnig schwierig, aber wir sind tatsächlich alle dafür zuständig, alles in unserer Macht Stehende zu unternehmen, um die Qualität hochzuhalten. Und da bin ich eindeutig, meine Damen und Herren, dass KI nur ein Teil der Lösung sein kann, die uns dabei hilft, die Qualität zu erhalten. Wir haben dann also Herrn Macsenaere und das IKJ als die Hüter unserer Daten mit dem System EVAS ins Boot geholt. Bei der ersten Videokonferenz mit Frau Plafky und Herrn Macsenaere habe ich maximal ein Drittel von dem verstanden, was mir zugetragen wurde. Aber wir haben dann versucht, die Daten zu überspielen, zu homogenisieren und nach ethisch-moralischen Gesichtspunkten genau zu sagen, was gebraucht wird und was nicht, und unser Projekt ist am Ende tatsächlich gelungen. Wir waren übrigens nur eine von drei Einrichtungen, die sich am Projekt beteiligt haben, aber dazu wird Ihnen Frau Plafky gleich noch mehr erzählen – sie ist an der Stelle der Profi. Was ich aus meiner Praxissicht noch sagen kann: Die Skepsis bei uns in der Einrichtung war extrem hoch. Es ging jedem genauso wie Ihnen vielleicht auch, wir haben uns gefragt: Ohje, was kommt da auf uns zu? Wir haben Vergleichsgruppen gebildet und Fallbeispiele bekommen, mit denen wir den Algorithmus füttern sollten, Entscheidungen gegenübergestellt etc. Wissen Sie, das hat etwas mit uns gemacht, und das durfte es auch. Es darf Unsicherheit, Angst oder ein Gefühl der Ohnmacht geben. Aber wissen Sie was, sind wir in der Kinder- und Jugendhilfe nicht Ohnmacht oder Handlungsunsicherheit gewohnt? Wir können mit Handlungsunsicherheit doch umgehen! Deswegen ist es jetzt an der Zeit, diese Ohnmacht anzunehmen und zu sagen, ich darf Angst haben und ich darf Fragen haben. Es gibt keine blöden Fragen am heutigen Tag, ich kenne mich mit blöden Fragen – was KI angeht – aus, die habe ich alle schon gestellt. Stellen Sie sie auch, nehmen Sie die Chance heute wahr, fragen Sie die die Experten und die Wissenschaft. Ich bin wie gesagt aus der Praxis hier und ich gebe Ihnen gerne alle Antworten auf Ihre Fragen.

Das Ergebnis unseres Projekts war jedenfalls erstaunlich – Frau Plafky wird dies gleich vertiefen. Die Mitarbeiter sind aus ihren Vergleichsgruppen zurückgekommen und haben gesagt, eins ist klar, das Ding geht nicht an uns vorbei. Punkt eins. Punkt zwei: Wir haben uns das völlig anders vorgestellt, wir wollen, dass das Projekt weitergeht. Punkt drei: Wir haben keine Ahnung, wie wir das zeitlich hinkriegen sollen, aber wir müssen am Ball bleiben. Ich kann sagen, dass unser Haus Nazareth nun nicht gerade Vorreiter in Sachen KI war, wir waren und sind da absolut nicht ganz, ganz vorne mit dabei, aber darum geht es auch nicht. Wir machen mit, wir sind dabei, wir leisten konstruktive Kritik und wir gestalten mit. Und wir sorgen dafür, dass KI Einzug hält in unsere Welt, dass die Sau im Dorf bleiben darf, ihr gleichzeitig aber die richtige Rolle zuteil wird. Und dafür will ich heute werben und motivieren, bevor wir so richtig einsteigen. Jeder von uns sollte sich dem Thema KI nähern und sich damit befassen und jeder von uns sollte kritische Fragen stellen und laut werden, wenn Standards nicht eingehalten oder rote Linien überschritten werden. Wichtig ist, dabei immer konstruktiv zu bleiben. Das brauchen wir in der heutigen Zeit und damit übergebe ich an Christina Plafky. Vielen Dank!

KI in der Kinder- und Jugendhilfe von Prof. Dr. Christina Plafky – Vortrag Teil 1

Vielen Dank. Meinen Vortrag würde ich nun gerne mit einer persönlichen Geschichte beginnen, um den Tenor für meinen heutigen Beitrag zu setzen. Ich habe einige Jahre in Großbritannien im Bereich Kinderschutz gearbeitet und dann zur wissenschaftlichen Seite gewechselt. Im Jahr 2015 war ich an der Uni Oxford angestellt und habe dort vor allem in der Zusammenarbeit mit einer Pflegekindereinrichtung geforscht. Die dortige Marketingabteilung kam im Laufe der Forschung auf mich zu und berichtete mir von einem von ihnen entwickelten Algorithmus, welcher den Fachkräften am Morgen mitteilt, mit welcher Pflegekinderfamilie Sie jetzt bitte Kontakt aufzunehmen haben. Dies war das erste Mal, dass ich mit dem Thema KI in der sozialen Arbeit in Kontakt gekommen bin und bei welchem ich zudem große Sorgen bekommen habe. Was passiert, wenn nicht mehr die Fachkräfte, sondern die Marketingabteilung und dort entwickelte Algorithmen solch wichtige Entscheidungen treffen und den Fachkräften sagt, was sie zu tun und zu lassen haben?

Diese Erfahrung war meine Motivation, mich mit dem Thema KI in der sozialen Arbeit aktiv auseinanderzusetzen. Und dieses Thema ist es auch, das sich immer durch meine Forschungsthemen zieht. Mir geht es darum, Sie und meine Studenten dazu zu befähigen, sich mit dem Thema so auseinanderzusetzen, dass Sie in der Praxis fundierte Entscheidungen treffen und klare Richtlinien entwickeln können. Um bei dem Bild von der Sau im Dorf zu bleiben: Es geht darum, die Grenzen so zu setzen, dass man klar sagen kann, bis wohin die Sau mitarbeiten darf, und wo nicht mehr, weil dort dann wir Fachkräfte zuständig sind. Und eine solche klare Entscheidung kann man nur treffen, wenn man anfängt, sich mit dem auseinanderzusetzen und ein Grundverständnis dafür zu entwickeln, was für eine Technik hinter KI steckt. Ich kann mich noch erinnern, wie es mir am Anfang ging: Das Thema macht ein bisschen Angst und es entsteht ein Unwohlsein. Aber gerade als Nicht-Techniker ist es wichtig, sich damit auseinanderzusetzen und eine Einschätzung oder ein Gefühl zu bekommen, das über die allgemeinen Informationen aus der Presse oder aktuelle gesellschaftliche Diskurse hinausgeht. Die Diskurse reichen von Meinungen, die besagen, dass KI uns in ein paar Jahren dominieren und über unser Leben entscheiden wird, bis hin zu Meinungen, die hier skeptischer sind und auch das Wort „Intelligenz“ im Kontext von KI kritisch betrachten. Letztere Einschätzung teile ich mittlerweile auch. Wir sprechen zwar von dem Wort Intelligenz, eigentlich ist es das aber gar nicht. Momentan empfinde ich diese Bezeichnung beim jetzigen Stand der KI zwar als ein gut funktionierendes Marketingwort, um Leute sich unmündiger fühlen zu lassen, als sie sich gegenüber der KI fühlen müssten. Allerdings wissen wir nicht, was die Zukunft bringt, und wer weiß, vielleicht übernimmt die KI doch irgendwann die Rolle einer wahren Intelligenz. Jedoch bin ich mir sicher, dass wir in der sozialen Arbeit auf dem Weg dorthin viele Möglichkeiten haben zu intervenieren und Grenzen zu ziehen.

Nun steige ich mit dem Thema ein, das technisch gesehen vielleicht noch am weitesten von Ihnen und auch von Deutschland insgesamt weg ist. Derzeit schreibe ich mit einem KI-Kollegen an einem Buch zum Thema und habe mich international sehr intensiv mit der Thematik in der wissenschaftlichen Welt auseinandergesetzt. International ist das Thema mittlerweile sehr präsent und in vielen Ländern wie Neuseeland, Australien, Amerika, aber auch Großbritannien hat das Thema in der Praxis bereits Einzug gefunden. An ein paar Beispielen werde ich ihnen gleich zeigen, was das konkret heißt, wenn „Predictive Diagnostik“, „Prognostik“ oder „Machine Learning“ Fachkräfte bei ihrer Entscheidungsfindung unterstützt. Hier schließe ich mich dem an, was Herr Hahn bereits zum Projekt KEPA berichtet hat und werde hier noch ein wenig ins Detail gehen.

Anbei sehen Sie ein Schaubild, das verdeutlicht, worüber wir eigentlich sprechen, wenn wir von KI sprechen. Artificial Intelligence – der englische Begriff – der KI, die deutsche Abkürzung, stellt hier den Oberbegriff ür eine Vielzahl sehr unterschiedlicher Technologien dar, die Sie auf dieser 

Folie sehen können. Die meisten dieser Technologien werden in der Sozialen Arbeit vermutlich keine Anwendung finden, weil sie technisch gesehen schlicht nicht dafür ausgelegt sind, sondern vor allem für industrielle Bereiche entwickelt wurden. Aber es gibt zwei Technologiebereiche, die aus heutiger Sicht durchaus interessant für die Soziale Arbeit sein können, darüber werden wir heute noch sprechen. Wir wissen alle, dass die KI ein Feld ist, das sich sehr schnell weiterentwickelt. Wir wissen nicht, was morgen passiert oder welche neuen Entwicklungen veröffentlicht werden. Aber Stand heute sind vor allem zwei Bereiche besonders relevant: zum einen das Verfahren des Machine Learning, zum anderen Large Language Models – also Chatbots bzw. alles, was mit Sprachverarbeitung zu tun hat. Die anderen Technologien kommen in der Sozialen Arbeit vereinzelt international bereits zum Einsatz. Insgesamt sind diese Bereiche aktuell aber wohl eher von nachrangigem Interesse. Es ist wichtig zu betonen, dass wir hier von einem sehr großen, sehr differenzierten Feld sprechen, in dem auch Fachleute sich in der Regel auf eine bestimmte Technologie spezialisieren, weil die Herangehensweisen schlichtweg sehr unterschiedlich sind.

Jetzt ganz konkret: Wir alle haben das Wort Algorithmus schon mehrfach gehört – selbst wenn man sich als Laie mit dem Thema beschäftigt. Auf diesem Schaubild sehen Sie, was sich eigentlich dahinter verbirgt. Wenn man es herunterbricht, ist es gar nicht so komplex: Ein Algorithmus ist im Grunde eine eindeutige Handlungsanweisung zur Lösung eines bestimmten Problems. Was ein Algorithmus genau macht – und dazu habe ich gleich auch noch ein Schaubild – ist, dass er einen Schritt für Schritt durch einen definierten Prozess führt. Genau so ist er auch programmiert. Und da sind wir schon beim ersten Punkt, an dem ich sagen würde: Naja, wirklich intelligent ist das nicht. Denn ein Algorithmus arbeitet einfach eine vorgegebene Handlungsanleitung ab, mehr nicht. Um zu verdeutlichen, worüber wir hier eigentlich sprechen, sehen Sie auf dem Schaubild eine sehr einfache Variante eines Algorithmus. Im Beispiel verlasse ich das Haus, schaue auf die Uhr. Ist es kurz vor sieben, habe ich noch Zeit und kann zu Fuß gehen. Ist es nach sieben, habe ich keine Zeit mehr und muss den Bus nehmen, um pünktlich anzukommen. Das ist genau das, was ein Algorithmus tut, nicht mehr und nicht weniger.

 

Podium 2025, blick auf die Bühne und Publikum

Natürlich: Wenn wir über Künstliche Intelligenz sprechen, wird es komplexer. Da gibt es mehr Verzweigungen, mehr Schichten, die übereinandergelegt werden. Aber im Kern steckt genau dieses Prinzip dahinter. Aus diesem Grund, und da bin ich übrigens nicht allein, ist das, was heute unter dem Begriff I verstanden wird, für mich persönlich noch nicht das, was ich unter Intelligenz fassen würde. Was hat nun aber all das mit Machine Learning zu tun? Machine Learning ist ein Verfahren oder ein Ansatz, bei dem Computer Daten verarbeiten, also Informationen in algorithmischer Form durchrechnen und auf dieser Basis Muster erkennen oder Entscheidungen treffen.

Und hier noch einmal ein ganz zentraler Punkt, mit welchem ich auf mein Anliegen zurückkomme, Sie zu befähigen: Wenn wir Künstliche Intelligenz in der Sozialen Arbeit nutzen wollen, ist es aus meiner Sicht unerlässlich, dass Sie sich bereits im Entwicklungsprozess beteiligen. Denn um ein Machine-Learning-Verfahren zu programmieren und zu gestalten, braucht es Menschen. In diesem Fall sind das die Techniker*innen und Entwickler*innen, die die Parameter festlegen, die Entscheidungen treffen und die Gewichte setzen. Sie bestimmen also mit, wie ein Entscheidungsverlauf technisch umgesetzt wird. Ein Beispiel: Bei einer einfachen Ja-oderNein-Entscheidung kann ich einem bestimmten Ausgang ein Gewicht zuweisen, etwa in Prozent. Das bedeutet: Ich kann festlegen, welche Option unter bestimmten Bedingungen wahrscheinlicher ist. Und genau an diesem Punkt können wir als Fachkräfte Einfluss nehmen, weil diese Gewichtungen einen unmittelbaren Effekt auf das spätere Ergebnis haben. Deshalb gilt auch hier, dass KI von Menschen gemacht wird. Menschen beeinflussen, wie eine KI entsteht, wie sie entwickelt wird und letztlich auch, was sie kann. Je früher wir uns als Fachkräfte in diesen Prozess einbringen, desto besser wird das Ergebnis am Ende für unsere Klientinnen und Klienten. Insofern ist es ein wichtiger Impuls für die Soziale Arbeit zu beachten, dass es nicht darum geht, KI wie eine fertige Software einzukaufen, mit der man dann – ob sie nun passt oder nicht – irgendwie arbeiten muss. Wir kennen das alle: Man bekommt ein Tool und muss sich dann damit arrangieren, wie es eben ist. Bei KI aber haben wir die Chance, es anders zu machen. Wir können von Anfang an mitgestalten. Wir können sagen: Wir brauchen eine KI, die genau so funktioniert, weil... – und das ist möglich, weil die Programmierung von Menschen gemacht ist und damit auch gezielt von uns beeinflusst werden kann.

Machine Learning kennen Sie alle. Im Grunde genommen nutzen Sie das mit all den technischen Möglichkeiten, die heute ganz selbstverständlich dazugehören, tagtäglich, beispielsweise bei Spam-Filtern. Wenn man daran zurückdenkt, wie wir damals vor 20 Jahren gearbeitet haben, ist das eigentlich unvorstellbar: Heute haben wir alle unsere Laptops und Handys dabei. Und ich glaube, dass es mit der KI wahrscheinlich genauso laufen wird. In zehn Jahren werden wir vielleicht wieder hier sitzen, ganz anders diskutieren, ganz anders arbeiten und uns fragen: Warum waren wir damals eigentlich so unsicher? Warum hatten wir so ein Gefühl von Ohnmacht? Obwohl wir es heute ganz selbstverständlich nutzen. Von daher klingen diese Verfahren – also Machine Learning – erst mal wahnsinnig komplex. Und ja, aus technischer Sicht sind sie das auch. Aber wir müssen da gar nicht so tief einsteigen, um uns damit sinnvoll auseinanderzusetzen. Es reicht, wenn wir die grundlegenden Prinzipien dahinter verstehen.

Hier noch ein internationales Beispiel aus der Kinder- und Jugendhilfe im Pflegebereich. Es ist inzwischen schon ein bisschen älter, weil die Entwicklungen ja sehr schnell voranschreiten. Auch in diesem Bereich lernen Techniker*innen und Entwickler*innen natürlich mit jedem neuen Projekt dazu. Sie lernen besser einzuschätzen, wie sie die Parameter setzen müssen, damit die Ergebnisse verbessert werden. Im Beispiel wurde versucht, mit einem Machine-Learning-Verfahren eine Einschätzung vorzunehmen. Hierbei ging es um die Frage wie wir eigentlich vorhersehen oder einschätzen können, ob unsere Jugendlichen nach Verlassen der Pflege nicht plötzlich ganz allein dastehen. Wir alle kennen die Problematik rund um das Thema Careleaver – also junge Menschen, die nach dem Ende ihrer Zeit in der stationären Jugendhilfe keine Unterstützung mehr bekommen. Und erfahrungsgemäß sind das genau die, die auch danach noch den größten Unterstützungsbedarf hätten. Aus diesem Grund hat man sich gedacht, hier ein Machine-Learning-Verfahren auszuprobieren. Es wurde also versucht, Prognosen über vorhandene Daten zu erstellen. Hierfür wurden Datensätze aus 28 Jahren herangezogen, also ein riesiger Datenbestand. Diesen Bestand hat man mithilfe eines Algorithmus ausgewertet, der entsprechend danach programmiert wurde, solche Risikolagen zu erkennen. Das Ergebnis: Bei etwa 30 Prozent der Jugendlichen konnte ein hohes Risiko festgestellt werden. Das heißt, die Wahrscheinlichkeit war groß, dass sie nach Verlassen der Pflegeeinrichtung ohne jegliche Hilfe dastehen und damit potenziell gefährdet sind. Dazu muss man jedoch sagen, dass die Trefferquote mit 39 Prozent noch nicht wirklich überzeugend war. Da könnte man fast meinen, das ginge mit Raten genauso gut. Aber man muss auch sehen: Dieses Projekt wurde 2021 abgeschlossen - begonnen hat es 2018. Und seitdem hat sich die Technik natürlich weiterentwickelt. Wenn man heute ein solches Projekt starten würde, wären die Ergebnisse vermutlich deutlich besser. Das Beispiel zeigt, wofür man solche Machine-LearningVerfahren tatsächlich nutzen kann. Auf solche Ideen kommt man oft erst, wenn man sich ein wenig mit der Technik beschäftigt hat.

Das nächste Schlagwort, das man in diesem Zusammenhang oft hört, ist Deep Learning. Deep Learning ist ein Teilbereich von Machine Learning, das auf mehrschichtigen künstlichen neuronalen Netzen basiert. Alle DeepLearning-Methoden sind Machine Learning, aber nicht jedes Machine Learning ist Deep Learning. Und diese sind dann in der Lage, wie es so schön heißt, Muster in Datensätzen zu erkennen. Muster erkennen ist grundsätzlich etwas, was alle Algorithmen tun, der Unterschied bei Deep Learning ist, dass es hierarchische Merkmalsrepräsentationen automatisch lernt. Sie lernen innerhalb der vom Menschen vorgegebenen Trainingsdaten, Architekturen und Optimierungsprozesse und können also Generalisierungen finden, die nicht explizit programmiert wurden. Und genau da beginnt, so glaube ich, der Moment, in dem das Wort Intelligenz ins Spiel kommt. Denn ab dem Punkt, an dem eine Maschine aus Trainingsdaten gelernte Muster anwenden kann, ohne dass jedes Detail explizit programmiert wurde, nähern wir uns vielleicht einer Form von Intelligenz.

Aber wenn wir den Begriff lassisch betrachten, dann steckt da natürlich noch sehr viel mehr dahinter. DeepLearning-Verfahren können beispielsweise eingesetzt werden, um Textdaten wie Interviews oder Fallbesprechungen zu analysieren. Die KI kann dabei Muster erkennen, Informationen extrahieren und sogar Hinweise auf einzelne Klientinnen oder Klienten geben. Die dahinterstehende Idee ist, Ressourcen gezielter einzusetzen. Heute haben wir schon mehrfach gehört, dass durch KI alles effizienter wird und wir dadurch Zeit sparen. Ich persönlich bin da ehrlich gesagt nicht ganz überzeugt, darauf komme ich aber später noch einmal zurück. Die Frage ist, ob wir wirklich Zeit sparen, oder ob wir nicht einfach den Fokus verschieben. Vielleicht geht es eher in Richtung Qualitätsentwicklung durch den Einsatz solcher Verfahren. Denn auch wenn es auf den ersten Blick so scheint, als würde man eine Zeitersparnis erzielen, merkt man auf den zweiten Blick schnell: Da muss man doch einiges nachbearbeiten. Und ob das dann wirklich effizienter ist, da bin ich mir nicht so sicher.

Deep Learning wird im Kontext der Kinder- und Jugendhilfe als Verfahren mittlerweile international – in einigen Ländern tatsächlich schon in der Praxis – angewendet. Amerika ist hier der Vorreiter. Dort gibt es bereits große Landkreise, in denen KI-Systeme ganz selbstverständlich als Standard in Kinderschutzverfahren integriert sind. Der Algorithmus hilft dabei einzuschätzen, ob in einem konkreten Fall eine Gefährdung vorliegt oder nicht. Im Rahmen einer mehrjährigen Studie, die 2018 veröffentlicht wurde, hat man genau solche Verfahren ausprobiert. Und auch hier zeigt sich wieder: Die Entwicklung und der Einsatz von KI ist nichts, was einfach von selbst passiert. Es ist von Menschen gemacht. Die Daten, die in die Studie eingeflossen sind, wurden von Menschen erhoben, die dies ganz ähnlich auch in Ihrer Praxis täglich tun. Daten für Protokollzwecke, für Dokumentationszwecke oder für Abrechnungszwecke werden später auch in KI-Systeme eingespeist, um Algorithmen zu testen und zu trainieren. Hierbei hat man festgestellt, dass es tatsächlich zu Benachteiligungen kam. Einzelne Bevölkerungsgruppen wurden durch die KI auffällig häufig als Risiko eingestuft. Daraus wurde die wichtige Erkenntnis gewonnen, dass wir besonders vorsichtig sein müssen, wenn wir KI – und insbesondere Machine-Learning-Verfahren – in der sozialen Arbeit einsetzen. Denn hier spielt das berüchtigte Thema Bias – also die Verzerrung – eine zentrale Rolle. Die Verzerrung kann auf zwei Ebenen passieren: Zum einen auf der Ebene des Trainingsdatensatzes selbst. Ein Machine-Learning-Verfahren funktioniert ja nur, wenn man es zuvor mit Daten füttert, also trainiert. Oft kommen diese Trainingsdaten jedoch aus spezifischen Kontexten wie beispielsweise aus Universitäten, wo Studenten bestimmte Datensätze erheben, die dann gesammelt und verwendet werden, um die KI zu trainieren. Und erst, wenn die KI ein bestimmtes Niveau erreicht hat, wird sie auf reale Daten losgelassen.

Ganz oft sind das Datensätze, die die Diversität der Bevölkerung und ihrer Problemlagen nicht abbilden, sondern lediglich einen Ausschnitt darstellen, der allein deswegen bereits eine Verzerrung in sich trägt. Oft sehen wir beispielsweise bei KIs im Bereich Behinderung, dass diese all die unterschiedlichen Formen von Behinderung gar nicht abbilden, sondern Behinderung dann oft einfach verstanden wird als „da sitzt jemand im Rollstuhl“ – weil die KI schlicht nicht darauf trainiert wurde. Aber – und das werde ich später noch anhand unseres Projekts zeigen – die Verzerrung entsteht nicht nur in den Trainingsdaten der KI. Auch die Daten, die Sie täglich in Ihrer Praxis erheben, enthalten solche Verzerrungen, also Bias. Und genau diese Kombination aus voreingenommenen Trainingsdaten und verzerrten Anwendungsdaten führt oft zu Ergebnissen, die mit Vorsicht zu genießen sind. Da muss man sehr genau hinschauen, reflektieren und kritisch prüfen: Ist dieses Ergebnis wirklich diskriminierungsfrei? Oder verstärkt es vielleicht nur bestehende Sichtweisen oder Muster, die wir eigentlich insbesondere in der Sozialen Arbeit bewusst vermeiden wollen? Aus diesem Grund gibt es inzwischen viel Forschung zu der Frage, wie man KIs so trainieren kann, dass sie möglichst frei von Verzerrungen sind. Und natürlich: Wie wir in der Sozialen Arbeit solche KIs überhaupt sinnvoll und verantwortungsvoll einsetzen können. Auch wenn der Stand der Technik aktuell vielleicht noch nicht ganz ausreicht, arbeiten die Entwicklerinnen und Entwickler täglich daran und es sind bereits große Fortschritte gemacht worden. In den nächsten Jahren werden wir hier sicherlich noch deutlich mehr sehen. Denn es ist möglich, bereits bei der Programmierung gezielte Einstellungen vorzunehmen, um genau solche Verzerrungen zu vermeiden. Ein positives Beispiel für solche Einstellungsmechanismen finden Sie bei Chatbots wie ChatGPT oder ähnlichen Systemen. Dort ist es etwa so geregelt, dass bestimmte Themen wie Gewalt, sexueller Missbrauch, psychische Erkrankungen oder Suizid vom Chatbot nicht besprochen werden dürfen. Er wurde so programmiert, dass er in solchen Fällen nicht reagiert, das Gespräch verweigert oder ablenkt. Das ist ein Beispiel dafür, wie solche Schutzmechanismen sinnvoll eingesetzt werden können. Und genau solche Einstellungsoptionen gibt es nicht nur bei Sprachmodellen, sondern auch bei Machine-Learning-Verfahren insgesamt.

Jetzt zu unserem Projekt-Beispiel. Herr Hahn hat bereits angedeutet, wie es zu diesem Projekt kam. In diesem Fall war der Ablauf etwas anders, weil die KI bereits existierte. Sie war ursprünglich für die Industrie entwickelt worden. Ich hatte einen Vortrag der Entwickler gehört und gefragt, ob man das System nicht auch einmal in der Sozialen Arbeit testen könne und ob dabei wohl etwas Sinnvolles herauskäme. Nachdem die Antwort lautete „Wir wissen es nicht“, entstand schließlich das Projekt. Wir konnten drei Einrichtungen gewinnen, die sich beteiligt haben: das Haus Nazareth, eine weitere Einrichtung der Kinderund Jugendhilfe sowie eine Einrichtung der Sozialpsychiatrie. Unser Ansatz war es, den bestehenden Algorithmus auf Daten anzuwenden, die bereits im Arbeitsalltag von Fachkräften gesammelt worden waren. Auch hier ging es also nicht um speziell für diesen Zweck erhobene Daten, sondern um das, was ohnehin dokumentiert wurde. Wir haben den Algorithmus über diese Daten laufen lassen und anschließend mit jeder Einrichtung einen ganzen Projekttag durchgeführt. Dort wurde zunächst kurz der Algorithmus vorgestellt und darauffolgend dann die Ergebnisse präsentiert. Im Anschluss fanden Fokusgruppen statt, um die Ergebnisse gemeinsam aus sozialarbeiterischer Perspektive zu reflektieren. Während des Projekts sind auch ethische Bedenken aufgekommen, zu welchen es inzwischen auch einige Veröffentlichungen gibt. Nun aber zum Ablauf des Projekts: Die zentrale Fragestellung lautete im Grunde genommen, was die KI überhaupt aus den vorliegenden Daten erkennen kann. Kommen dabei sinnvolle Ergebnisse heraus? Und wenn ja: Lassen sich diese Ergebnisse für den Arbeitsalltag nutzen? Können sie also helfen, mit den vorhandenen Daten und dem Algorithmus tatsächlich relevante Erkenntnisse zu gewinnen?

Hierbei war besonders wichtig herauszufinden, ob der Algorithmus für die Soziale Arbeit geeignet ist, da dieser ja bereits existierte. Aus meiner Sicht macht ihn so interessant, dass er im Gegensatz zu vielen anderen KI-Systemen komplett annahmefrei arbeitet, also mathematisch gesehen ohne vorgegebene Hypothesen oder Annahmen auskommt. Das unterscheidet ihn von vielen gängigen Verfahren, die man sonst kennt.

Also, ich möchte Sie hier wirklich nicht mit Mathematik langweilen, aber normalerweise ist dieses BiasThema – ich habe es eben schon kurz erwähnt – Teil des Algorithmus. Denn dieser Algorithmus beruht auf Wahrscheinlichkeitsrechnungen. Die zugrundeliegende Mathematik folgt dem Prinzip: Was bisher immer so war, wird vermutlich auch in Zukunft so sein. Genau darauf basiert die Idee. Der Kollege, der diesen Algorithmus entwickelt hat, beschreibt es gerne so: Wenn man einen schwarzen Raben nach dem anderen vorbeifliegen sieht, geht man irgendwann davon aus, dass alle Raben schwarz sind – zumindest so lange, bis man plötzlich einen roten Raben sieht. In dem Moment stimmt die Rechnung sozusagen nicht mehr, und das zugrunde liegende Gesetz ist nicht mehr gültig. Genau das ist die mathematische Grundlage, auf der diese KI basiert. Und gerade deshalb finde ich sie für die Soziale Arbeit so spannend: Weil wir damit das Problem des Bias – also der Tatsache, dass in der KI oft schon eine Form von Diskriminierung enthalten ist – einfach einmal ausklammern können. Daher dachte ich, es wäre vielleicht eine interessante Variante, das einmal auszuprobieren.

Im Beispiel der Einrichtung mit EVAS hatten wir entsprechende Datensätze. Es gibt dort einen Aufnahmebogen, in dem eine Vielzahl an Informationen erfasst wird. Auf der linken Seite hatten wir zum Beispiel 362 Aufnahmebögen mit Rohdaten – und pro Klienten etwa 300 Merkmale. Wenn man das hochrechnet, kommt da schon eine beachtliche Datenmenge zusammen. Und das, obwohl der Betrachtungszeitraum der Fälle gar nicht so lang war – bei Euch, Daniel, waren es, glaube ich, etwa zwei Jahre. Zusätzlich hatten wir dann noch einen Verlaufsbogen.

Nach dem EVAS-System wird alle sechs Monate ein Verlaufsbogen erhoben, bei dem erneut verschiedene Merkmale erfasst werden – ebenfalls rund 300. Manche davon sind identisch mit denen aus dem Aufnahmebogen, aber natürlich nicht alle. Fachlich macht es ja auch Sinn, hier eine gewisse Unterscheidung zu treffen. Zusätzlich gibt es einen Abschlussbogen, der ausgefüllt wird, wenn der oder die Klient*in die Einrichtung verlässt. Wir haben uns alle Bögen angeschaut und kamen dadurch auf eine ziemlich große Anzahl – jeweils mit rund 300 Merkmalen pro Bogen, beim Abschlussbogen waren es sogar 350. Am Ende sieht das Ganze dann – anonymisiert – so aus: Man hat nur noch eine Art Tabelle vor sich, mit der man auf den ersten Blick kaum etwas anfangen kann. Aber genau das ist die Grundlage, mit der die KI arbeitet. Sie sehen: Man kann hier wirklich nicht mehr erkennen, um wen es sich handelt. Es sind nur noch Angaben wie das Erhebungsdatum, das Alter und bestimmte Merkmale – etwa der Symptomverlauf, die Entwicklung des jungen Menschen, der Abbruch oder Abschluss. Das sind alles Informationen, die in den verschiedenen Bögen erfasst wurden. Die KI wertet die Daten dann und erstellt anschließend Prognosen zu verschiedenen Zeitpunkten. Zum Beispiel direkt nach dem Aufnahmebogen eine Vorhersage über den möglichen weiteren Verlauf bis zum Abschluss. Oder auch zwischen zwei Verlaufsgesprächen eine Prognose darüber, was bis zum nächsten Verlaufsgespräch passieren könnte. Wichtig ist mir an dieser Stelle noch ein Punkt, der auch in den Gesprächen mit den Fachkräften immer wieder angesprochen wurde: Was verstehen wir eigentlich unter dem Begriff rognose? Eine Prognose ist keine Kristallkugel. Sie bedeutet nicht, dass etwas garantiert so eintritt. Eine Prognose heißt vielmehr: Wenn wir nichts ändern, ist es wahrscheinlich, dass dieses oder jenes Ereignis in Zukunft eintritt.

Die Grundidee hinter der Nutzung einer solchen KI ist: Wenn wir jetzt nichts verändern, wird der Verlauf voraussichtlich so weitergehen. Das bedeutet aber im Umkehrschluss auch: Wenn wir etwas verändern, wird sich auch der Verlauf wahrscheinlich ändern. Genau darin liegt der Reiz dieser Methode – mit Hilfe einer Prognose kann man gezielt Verhaltensweisen, Maßnahmen oder Interventionen anpassen, um zu verhindern, dass ein negativer Verlauf tatsächlich eintritt. Das ist im Kern der Gedanke dahinter: Warum nutzen wir überhaupt Prognostik in der Sozialen Arbeit? Eben, um frühzeitig Einfluss zu nehmen und Entwicklungen in eine bessere Richtung zu lenken.

Das hier ist ein Beispiel dafür, wie so etwas in der Praxis aussehen kann – ein ganz einfaches Beispiel zur Veranschaulichung. Wir hatten festgestellt: Das Thema Cannabis taucht offensichtlich häufiger auf. Und zwar schon bei der Aufnahme der Klient*innen, also direkt im ersten Bogen. Dort war der Punkt „Konsumintensität harter Drogen bei Aufnahme“ auffällig – und genau da hat die KI ein Muster erkannt. Ein Muster, auf das wir als Menschen wahrscheinlich nicht so direkt gekommen wären. Nämlich: Eine Auffälligkeit im Essverhalten bei der Aufnahme. Und zusätzlich: der Schweregrad der Gesamtauffälligkeit bei Aufnahme. Diese drei Parameter zusammen – also Cannabis-Konsum, Essverhalten und Gesamtauffälligkeit – hat die KI als ein wiederkehrendes Muster identifiziert. Immer wenn diese drei Merkmale gemeinsam auftreten, wurde ein negativer Verlauf prognostiziert. Das hat die KI also sozusagen als Muster herausgearbeitet. Und natürlich kann man dann versuchen, das irgendwie zu erklären – aber genau hier liegt der Knackpunkt: Es geht bei dieser Art von Analyse nicht um eine Kausalitätsbestimmung. Man kann also nicht sagen: Weil jemand Auffälligkeiten im Essverhalten zeigt, ist der Verlauf negativ. Oder: Weil Drogenkonsum vorliegt, passiert X oder Y. Sondern: Die KI erkennt einfach, dass dieses Muster immer wieder mit einem bestimmten Verlauf verknüpft war – Punkt. Keine weitere Interpretation, keine Erklärung im klassischen Sinn.

Und wenn wir uns das dann im Ergebnis anschauen – ich gehe jetzt nicht ins Detail, nur damit Sie es einmal gesehen haben – dann sieht das etwa so aus: Auf der rechten Seite erkennen Sie die blauen und roten Punkte, die größtenteils deckungsgleich übereinanderliegen.

Und genau hier sieht man, dass die Prognosewahrscheinlichkeit in diesem Fall sehr präzise ist. Denn die Linien – also das, was vermutet wurde, und das, was tatsächlich passiert ist – liegen nahezu deckungsgleich übereinander. Sie sehen hier zum Beispiel Abstufungen wie: kein Konsum, selten, weniger, öfter, kontrolliert, kontrolliert und abhängig – das sind Kategorien, die im Verlaufsbogen erfasst werden. Und genau in diesem Zusammenhang hat die KI ein bestimmtes Muster erkannt.

Was wir daraus ableiten können, ist: Die KI kann eine Vielzahl solcher Muster erkennen und sichtbar machen. Und wir können dann entscheiden, was wir damit anfangen. In unserem Fall haben wir mit einer Art Forschungsmaske gearbeitet – das war für die Fachkräfte in der Praxis zunächst etwas schwierig, weil es komplex und teils überfordernd war. Man müsste sich also im Vorfeld überlegen: Was wollen wir überhaupt wissen? Welche Prognosen sind für uns relevant? Welche Parameter sind für unsere Arbeit entscheidend? Am Beispiel des Cannabis-Konsums zeigt sich das gut: Wenn wir bereits bei der Aufnahme erkennen, dass dieses Thema relevant ist, und die KI daraus einen möglichen negativen Verlauf prognostiziert, dann können wir frühzeitig Maßnahmen ableiten. Zum Beispiel: Welche stationären Gruppen könnten hilfreich sein? Welche Fachkräfte sind hier besonders geeignet – etwa jemand mit Erfahrung oder Ausbildung im Bereich Sucht? Ziel ist es, mithilfe dieser frühen Hinweise den prognostizierten negativen Verlauf gar nicht erst eintreten zu lassen – indem wir gezielt gegensteuern. Wichtig dabei: Das ist natürlich nichts, was man einfach der KI überlässt. Und genau hier kommt wieder die menschliche Komponente ins Spiel. Die KI ist ein zusätzliches Tool – eine ergänzende Informationsquelle, die uns hilft, unsere Arbeit weiterzuentwickeln, anzupassen und zu verbessern.

Ich springe jetzt thematisch ein bisschen, weil die Zeit schon etwas knapp wird. Ein ganz wichtiger Punkt zur Prognostik ist noch: Sie bildet ausschließlich ab, was bisher passiert ist. Das bedeutet: Sobald eine Einrichtung ihre Maßnahmen verändert – etwa neues Personal einstellt, andere Interventionen plant oder die Gruppenzusammensetzung verändert – muss die Prognose neu berechnet werden. Das ist ein Umdenken im Vergleich zu früher. Früher hat man eine statistische Erhebung gemacht, und die war dann zumindest für ein paar Jahre gültig. Bei der Arbeit mit KI funktioniert das so nicht mehr. Hier braucht es ein System, das kontinuierlich im Hintergrund mitläuft – also ständig aktualisiert wird, damit es immer den aktuellen Stand der Dinge widerspiegelt. Nur so können die Veränderungen, die in der Einrichtung oder bei den Klient*innen stattfinden, auch wirklich in die Prognosen einfließen. Ohne dieses laufende „Retraining“ riskieren Modelle, dass sie veraltete Muster reproduzieren und die Praxis nicht optimal unterstützen. Es handelt sich also um eine Art laufende, automatisierte „Beobachtung“ bzw. Aktualisierung der Datenlage. Und genau das ermöglicht es uns: Wenn wir sehen, dass sich bei einem bestimmten Klienten oder einer bestimmten Klientin ein negativer Verlauf abzeichnet, können wir rechtzeitig eingreifen und gezielt etwas verändern.

Bei der zweiten Einrichtung war die Datengrundlage eine ganz andere. Dort wurde nicht mit EVAS gearbeitet – und wir haben ja gerade eben gehört, dass viele von Ihnen mit einem solchen System auch gar nicht arbeiten. Deshalb ist dieses Beispiel vielleicht besonders interessant. In dieser zweiten Einrichtung haben wir ausschließlich die Tagesdokumentation als Grundlage verwendet – also die ganz normale tägliche Dokumentation, wie sie ohnehin geführt wird. Die sieht zwar optisch ähnlich aus, aber das, was die KI daraus berechnet, unterscheidet sich natürlich deutlich. Denn hier beziehen sich die Prognosen nicht mehr auf bestimmte Verlaufsbogenphasen wie bei EVAS, sondern sie laufen auf täglicher Basis.

Und was wir dabei festgestellt haben, war wirklich spannend: In stationären Einrichtungen – etwa in der Kinder- und Jugendhilfe – lässt sich mit diesen Daten tatsächlich berechnen, wann in der Gruppe die nächste Krise auftreten wird. Und das lässt sich auf verschiedenen Zeitebenen prognostizieren: von Tag zu Tag, von Woche zu Woche oder sogar auf Monatssicht. Damit wird es möglich, Ressourcen vorausschauend zu planen und frühzeitig zu reagieren.

Ich höre schon, was sich hier gerade im Raum tut – dazu komme ich gleich. Vielleicht passt das auch ganz gut, denn diese Reaktion hatten wir auch in einem der Workshops: Da hat die Hälfte der Gruppe gesagt: Wenn ich jetzt schon weiß, wann die nächste Krise kommt – dann bleib ich einfach daheim!

Und damit sind wir bei der Frage: Was ist eigentlich eine Prognose? Eine Prognose bedeutet, dass wir sagen: Wenn wir nichts ändern, dann wird sich folgender Verlauf ergeben. Jetzt stellt sich natürlich die Frage: Müssen wirklich alle Fachkräfte solche Auswertungen sehen? Oder reicht es, wenn die Führungskräfte informiert sind? Die können dann beispielsweise den Schichtplan anpassen, dafür sorgen, dass genug und das richtige Personal da ist, damit eine Krise erst gar nicht auftritt. Genau deshalb machen wir solche Prognosen. Nicht, weil wir astrologisch in die Sterne schauen wollen, sondern um die Qualität der Betreuung und Begleitung zu verbessern. Für diesen Zweck sind Prognosen sicherlich sehr sinnvoll.

Die Implementierung jedoch muss gut durchdacht sein. Wie ich am Anfang schon gesagt habe: Das ist keine schnelle oder einfache Lösung. Es erfordert sorgfältige Prüfung und Überlegung, wann und wie solche Prognosen eingesetzt werden, wer daran beteiligt ist und wer die Ergebnisse sehen darf. Wir wollen auf keinen Fall Arbeitsbedingungen schaffen, die schwieriger sind als bisher. Gemeinsam mit Fach- und Leitungskräften haben wir mögliche Szenarien erarbeitet, wie und wofür man solche Prognosen nutzen kann. Sie sehen hier eine ganze Reihe von Optionen – und ich bin sicher, in der Praxis kommen noch viel mehr Ideen dazu.

Ein Thema, das in Zukunft sicher eine Rolle spielen wird, sind etwa Entgeltverhandlungen. Dabei könnte es sein, dass Geldgeber erwarten, dass solche Prognose-Tools eingesetzt werden, um nicht nur die Wirksamkeit zu prüfen, sondern auch die Qualität des Dienstes sicherzustellen. Nur zwei Beispiele herausgegriffen: Die gezielte Zuteilung von speziell ausgebildetem Personal zu bestimmten Gruppen von Klient*innen wäre eine interessante Möglichkeit. Momentan wird das oft eher nach Verfügbarkeit oder persönlichen Vorlieben geregelt. Mit Prognosen ließe sich das besser an den tatsächlichen Bedarf anpassen. Und zweitens könnten so gezielt Präventionsmaßnahmen angeboten werden, zum Beispiel, um zu verhindern, dass ein bereits bestehender leichter Drogenkonsum sich zu einem schwerwiegenden Problem entwickelt. Sie sehen, es gibt viele spannende Möglichkeiten und Fragen, die hier im Raum stehen.

Frage aus dem Publikum

Guten Morgen! Für mich stellt sich, da das Ganze ja auf sehr hohem wissenschaftlichem Niveau abläuft, die Frage: Gibt es für das eben von Ihnen beschriebene Vorgehen schon ein richtiges Tool oder eine Software, die wir nutzen können? Ich finde das Thema Diagnostik wirklich spannend, aber ich habe gehört, dass sich das alles noch im Evaluationsmodus befindet. Gibt es also bisher bereits eine fertige Software, ein Tool oder eine App, die man tatsächlich einsetzen kann?

Antwort
Prof. Dr. Christina Plafky

Ja, es gibt bereits eine Software bzw. ein Tool, aber dieses hat noch nicht die Marktreife erreicht. Wir befinden uns momentan – insbesondere im deutschsprachigen Raum – noch auf Prototyp-Niveau. Das bedeutet, wir testen und probieren Lösungen aus, um zu sehen, ob diese funktionieren oder nicht. Das Hauptproblem dabei ist die Finanzierung: Forschungsgelder fließen meist nur bis zur Prototypen-Entwicklung. Für die Überführung in die Praxis braucht es weitere Mittel, die aktuell oft fehlen. Anders sieht es aus, wenn eine Einrichtung solche Tools intern entwickelt. Dann sind sie oft besser auf die bereits genutzte Software abgestimmt und können direkt eingesetzt werden. Unser Projekt stammt von einer Hochschule, und das ist genau der Prozess, in dem wir uns gerade befinden.

Viele Einrichtungen entwickeln selbst Lösungen, aber das ist für kleine Organisationen oft kaum möglich, da sie weder über die technische Expertise noch über ausreichende Datenmengen verfügen. Für die Zukunft wird es nicht ausreichen, wenn jede Einrichtung ihre eigene KI entwickelt. Vielmehr wird eine Zusammenarbeit mit Hochschulen notwendig sein, weil diese die technische Entwicklung vorantreiben und Zugang zu größeren Datenmengen haben. International wird die Prognostik – wenn auch vielleicht nicht mit genau diesem Algorithmus – bereits eingesetzt und ist dort zum Teil schon marktreif. Im deutschsprachigen Raum stehen wir aber noch am Anfang.

Antwort
Daniel Hahn

Ein wichtiger Aspekt, den ich aus meiner Perspektive nochmal betonen möchte, ist die Praxis. Wir haben dieses Projekt durchgeführt und ich habe in meiner Rede betont, dass wir erst damit arbeiten können, wenn das Projekt wirklich reif ist. Aktuell hört man sehr viel über Prototypen, aber es ist wichtig zu wissen, dass es funktionierende KI-Tools gibt, die marktreif und nutzbar sind. Heute werden wir einige dieser Tools vorstellen. Es ist wichtig zu verstehen, dass das, was Sie hier hören, darauf abzielt, uns offen und neugierig zu halten und ermutigt, uns in den Diskurs einzumischen. Aber wie können Sie sich in den Diskurs einmischen? Eine Möglichkeit ist das Projekt KEPA, für das wir ein Folgeprojekt beantragt haben. Es war ein schwieriges Unterfangen, aber wir haben es geschafft. Das Projekt läuft jetzt für die nächsten anderthalb Jahre und ist zunächst auf Baden-Württemberg beschränkt. Es gibt jedoch auch andere Projekte, wie zum Beispiel das Projekt von Michael Macsenaere, über das er später noch sprechen wird.

Es ist wichtig zu verstehen, dass im Sozialwesen viele KI-Entwicklungen in Zukunft wie Pilze aus dem Boden schießen werden. Sie sollten nicht warten, bis ein Prototyp kein Prototyp mehr ist, sondern sich stattdessen in den Diskurs einmischen. Das Projekt KEPA bietet Kontakte und Möglichkeiten zur Informationsbeschaffung sowie zur Einbringung Ihrer Expertise. Sich in die Konzeption und Programmierung neuer KI-Tools in Ihrem Bereich einzumischen, ist ganz, ganz wichtig!

Antwort
Prof. Dr. Christina Plafky

Genau! Und um meinen vorherigen Punkt zu unterstreichen: Es geht hier nicht einfach darum, eine Software einzukaufen. Ich möchte noch einmal betonen, wie wichtig es für mich ist, dass Sie diese Informationen mitnehmen, damit Sie aktiv werden können, wenn ähnliche Entwicklungen stattfinden. Da gibt es noch eine offene Frage.

Frage aus dem Publikum

Guten Tag! Ich repräsentiere eine kleine heilpädagogische Einrichtung mit familiärer Ausrichtung, in der wir über 30 Jahre Erfahrung gesammelt haben – ein Aspekt, der auch im Kontext von Künstlicher Intelligenz (KI) relevant ist. Im Laufe unserer Geschichte haben wir uns sowohl mit der Milieutheorie als auch mit dem Metzler-Verfahren auseinandergesetzt, einem Ansatz, der versuchte, Jugendhilfe an handfeste Fähigkeiten wie Kochen oder Taschengeldverwaltung zu koppeln. Die Milieutheorie, oft von Jugendämtern genutzt, um die Rückfallquoten von Jugendlichen in ihre ursprünglichen Lebensumstände zu erklären, ist für uns besonders interessant. Es zeigt, wie wissenschaftliche Erkenntnisse sowohl positiv als auch negativ angewendet werden können – eine Lektion, die wir aus der täglichen Praxis ziehen. Ich bin überzeugt, dass KI nicht zum Werkzeug für solche einseitigen Ansätze werden sollte. Deshalb ist es wichtig, dass wir uns in die Entwicklung von KI einbringen.

Meine Beobachtung ist aber auch, dass der Algorithmus-Ansatz tendenziell dazu führt, Verantwortung weiter zu delegieren – weg von den Basisstrukturen, die direkt mit den Kindern arbeiten. Softwareentwickler und Jugendämter übernehmen diese Verantwortung oft unter fadenscheinigen Begründungen. Für mich ist es jedoch essenziell, dass die Verantwortung und Entscheidungshoheit bei denen verbleiben, die unmittelbar mit den Kindern interagieren. Ich bin seit über 30 Jahren in diesem Bereich tätig, weil ich fest an die Fähigkeit des Menschen glaube, sich grundlegend zu ändern – ein Aspekt, der für Algorithmen schwer zu erfassen ist. Ebenso wichtig ist mir, dass Pädagogen eine empathische Haltung haben, was in einer KI nur schwer abzubilden ist. Zu den Herausforderungen gehören auch Bindungsverhalten, Loyalität und Unvoreingenommenheit gegenüber Kindern und Klienten – Aspekte, die in einer KI-Kultur leicht verloren gehen. Und was macht es mit uns, wenn wir schon prognostisch wissen, in welche Richtung sich ein junger Mensch entwickeln wird? Auch das Lernen aus Fehlern ist tägliche Praxis für uns, aber ein schwieriger Punkt für KI-Systeme. Wie soll eine Maschine verzeihen oder Dinge wiedergutmachen, die ohne unser Zutun schiefgelaufen sind? Eine weitere Sorge ist die Haftung: Wer trägt die Verantwortung, wenn eine KI fehlt?

Ich erlebe zunehmend staatliche Interventionen im pädagogischen Bereich, die, wenn sie versagen, oft durch weitere Eingriffe ersetzt werden – ein Rückzug ist nicht vorgesehen. Dieses Muster ist für mich ein weiteres Defizit in der aktuellen Entwicklung. Ich danke Ihnen für Ihre Aufmerksamkeit und hoffe, mein Input trägt zum Diskurs bei.

Frage aus dem Publikum

Guten Tag! Ich komme aus dem VPK- Landesverband Baden-Württemberg und habe eine Frage an Herrn Hahn. Sie haben in Ihrer Anfangsrede sehr häufig von Moral und Ethik gesprochen. Sie kommen aus einem erzbischöflichen Kinderheim, und deshalb wäre es spannend zu erfahren, was passiert, wenn die Daten Ihrer Einrichtung mit denen von uns, als freie Vertreter der Jugendhilfe, kombiniert werden. Gibt es dann andere Ergebnisse – insbesondere im Hinblick auf Neutralität? Vielleicht können Sie auch erläutern, wie Sie bei Ihnen im Haus den Prozess unter moralischen und ethischen Gesichtspunkten definiert haben.

Antwort
Daniel Hahn

Ich gebe Ihnen zu 100 Prozent Recht – zum Glück gibt es Sie und auch alle anderen, die genau diese Fragen stellen. Das wünschen wir uns sehr. Sie haben völlig recht, wenn Sie sagen, dass KI nur begrenzt kann, was man ihr zutraut. Ich möchte ganz klar betonen: Ich bin kein Verfechter der KI. Ich sage nicht, dass KI die Lösung ist – ganz im Gegenteil. Man sollte sie eher als Hilfsmittel sehen, das möchte ich vorwegnehmen. Das ist mir sehr wichtig.

Christina Plafky hat es vorhin bereits gesagt: Algorithmen arbeiten mit Mustererkennung. Die spannende Frage ist, wie diese Muster überhaupt entstehen. Muster entstehen aus einem Blick in die Vergangenheit. Jede Entscheidung, die wir heute als Sozialpädagoginnen, Sozialpädagogen oder Sozialarbeiter treffen, basiert auf genau diesen Hintergründen, die Sie angesprochen haben. Zum Glück entstehen sie aus Beziehung, Bindung und manchmal auch aus persönlicher Enttäuschung. Vor der Hilfeplanung bringt jeder seine Erfahrungen mit ein – das beeinflusst die Entscheidungen – Stichwort Bias. Da spielt auch unser Bauchgefühl, unsere Emotionen mit rein. Fakt ist: Aus dem Hilfeplan entstehen Zielformulierungen und es werden Entscheidungen getroffen, die all diese Faktoren widerspiegeln. Diese Entscheidungen fließen in den Algorithmus ein. Die Frage ist: Welche Bestandteile sind darin enthalten? Nehmen wir als Beispiel 100 schwarze Raben, die vorbeifliegen. Wir haben schon immer mit allem, was wir sind, solche Entscheidungen getroffen – basierend auf diesen „100 schwarzen Raben“. Kommen jetzt ein oder zwei weiße Raben hinzu, stimmt das Gesetz nicht mehr. Wir müssen aufmerksam sein, uns neu justieren. Ich glaube, hier liegt die spannende Herausforderung: Wir müssen dem Algorithmus beibringen, nicht in der Vergangenheit zu verharren, sondern die Veränderungsprozesse, die Kinder, Jugendliche und wir selbst als Fachkräfte durchlaufen, auch für die Zukunft zu berücksichtigen. Ich wäre sehr an einer technischen Antwort darauf interessiert, weil ich das für eine große Gefahr halte. Wichtig ist mir auch zu sagen: Unsere jetzigen Entscheidungen werden schon jetzt mit solchen Algorithmen – und nicht nur bei KIEPA – verarbeitet und Muster daraus erkannt. Dann muss man sich fragen, wie diese Muster entstanden sind. Ich will nicht alle Probleme, die Sie aufgeworfen haben, kleinreden – die sind da und müssen diskutiert werden.

Zum Thema Ethik und Moral – insbesondere katholische Perspektiven – gibt es kein ausschließlich katholisches Evaluationssystem, worüber ich persönlich froh bin. Stattdessen nutzen wir ein konfessionsübergreifendes, konfessionsloses und hoffentlich sehr objektives Tool zur Wirksamkeitsmessung von Hilfen. Wir arbeiten mit EVAS, das ist jetzt ein beispielhaftes Tool. Wir versuchen, uns von konfessionellen oder ethisch-moralischen Narrativen – egal ob von der Kirche oder anderen Gruppen – möglichst zu lösen. Ob uns das immer gelingt, kann ich nicht sagen. Zum Prozess in unserer Einrichtung: Sie haben gefragt, wie das abläuft. Die Bögen werden nie allein ausgefüllt, sondern sind Teil eines institutionellen Prozesses im Team, mindestens im Vier-Augen-Prinzip. Und Gott sei Dank arbeiten bei uns nicht nur Katholiken in katholischen Einrichtungen. Es sind auch evangelische, muslimische und Menschen aller Glaubensrichtungen im Team. Diese Vielfalt fließt auch in die Skalierung ein, die keine Bewertung, sondern eine Einordnung darstellt.

Was ich allerdings nicht ausräumen kann, und das habe ich auch schon gesagt, ist: Wir müssen sehr genau darauf achten, von welcher Normvorstellung aus wir das Kind betrachten. Das ist ein wirklich wichtiger Punkt. Aber auch bei unseren Hilfe- und Erziehungsplänen gilt das schon: Nach welchen Kriterien skalieren wir? Wenn ich Sie fragen würde, welche Items wir abfragen, hätten Sie bestimmt viele Antworten. Die meisten Bögen enthalten vorgegebene Kategorien, wenige sind ganz frei formuliert. Orientierungshilfen brauchen wir, aber im Kern hat sich nicht viel geändert. Wir haben EVAS übersetzt, unseren Erziehungsplan angepasst und versuchen so objektiv wie möglich zu sein. Ich hoffe, ich habe Ihre Frage zumindest ansatzweise beantwortet. Sonst können wir gern später noch einmal darauf eingehen.

Antwort
Prof. Dr. Christina Plafky

Ganz kurz auch nochmal eine Antwort von mir: Es wurden hier schon einige Fragen angesprochen, die für uns der Grund sind, warum wir hier heute gemeinsam diskutieren. Auf viele dieser Fragen gibt es nämlich noch keine Antworten. Zum Beispiel auf die Frage der Entwicklung der Sozialen Arbeit in Bezug auf die oben gestellten Fragen. Oder auch die Frage, was das für unsere Fachlichkeit bedeutet. Oder: Wie verändert sich unser Blick, wenn wir KI-Empfehlungen hören? Das sind alles Themen, die wir selbst steuern müssen.

Es ist auch nicht so, dass KI einfach berechnen kann, was passiert – zumindest nicht in der Art, wie sie derzeit programmiert ist. Technisch kann man zwar Parameter setzen und bestimmen, was einbezogen oder ausgeschlossen wird, aber eine vollumfängliche Steuerung ist nicht möglich. Deshalb ist es wichtig, dass die Soziale Arbeit von Anfang an an der Entwicklung beteiligt ist, um diese Steuerung zu gewährleisten.

Worum es mir eigentlich geht: KI gibt immer nur eine Empfehlung – mehr nicht. Sie als Fachkraft können diese Empfehlung genauso ignorieren, wie Sie eine Empfehlung eines Kollegen oder Vorgesetzten ignorieren können. Wir müssen lernen, mit solchen Empfehlungen umzugehen. Darum betone ich auch, dass „Intelligenz“ in diesem Zusammenhang vielleicht das falsche Wort ist, weil es uns kleinmacht – dabei ist es nur eine Empfehlung. Genauso wie Sie von einem neuen Fachbuch beeinflusst werden, wird Ihr Blick auf die Klienten durch KI-Empfehlungen verschoben. Dem können wir uns nicht entziehen, aber wir können bewusst damit umgehen. Der springende Punkt ist, zu lernen, wann wir solche Empfehlungen nutzen wollen, wann nicht, wann sie ignoriert werden können oder wann sie hilfreich sind. Ich glaube, in den nächsten Jahren wird es vor allem darum gehen, diese Fragen nicht nur wissenschaftlich, sondern auch praktisch aus der Fachpraxis heraus zu bearbeiten.

Zum Thema Ethik: Ich habe in Fokusgruppen mit drei Einrichtungen gesprochen, zwei davon ohne konfessionellen Hintergrund. Alle haben ähnliche ethische Themen diskutiert – es gab keine Ausreißer, nur weil eine Einrichtung katholisch ist.

Und um noch einmal auf Ihre Aussage zurückzukommen: Es ist nicht so, dass die Fachpraxis vollkommen objektiv arbeitet. Die Praxis ist bereits subjektiv gefärbt, und das zeigt sich natürlich auch in den Ergebnissen der KI. Wie Sie gesagt haben, spiegeln sich darin die Haltung der Einrichtungen und die Basis der Daten wider. Als Beispiel: Eine Einrichtung hat sich nach einem halben Tag die Ergebnisse aus ihren Daten angeschaut und gesagt: „Sie verstehen das nicht, da taucht nur Krise auf, aber wir arbeiten doch ressourcenorientiert.“ Tatsächlich erfassen sie in ihren Daten fast nur Krisen – negative Ereignisse und Fehlentwicklungen. Positives wird kaum aufgenommen. An diesem Punkt kann KI als wirkungsvoller Spiegel dienen, um die eigene Praxis zu reflektieren. Und noch einmal zurück zu den Trainingsdaten und dem sogenannten Bias. Es ist nicht die KI selbst, die ein Bias hat, sondern wir, weil wir bestimmte Verhaltensweisen zeigen und bestimmte Daten sammeln, die Muster erzeugen. Die KI holt diese Muster nur an die Oberfläche. Wenn man das so sieht, gewinnt man automatisch mehr Handlungsmacht zurück und ist dem Ganzen nicht hilflos ausgeliefert. Das möchte ich zur Ethik-Frage noch ergänzen.

Um es kurz zusammenzufassen: Meine Erkenntnis aus dem Projekt ist, dass jede Einrichtung ihre Datensammlungspraxis überprüfen muss. Haben wir in unserer Datensammlung vielleicht ein Bias? Arbeiten wir wirklich nach den Haltungen und Prinzipien, die wir uns vornehmen oder in unseren Leitlinien festgeschrieben haben? Es braucht definitiv noch viele Forschungsprojekte und Überprüfungen, wie wir damit gut umgehen können. Das findet sich auch in der Literatur wieder, etwa als Idee einer Art Betriebserlaubnis für KI. Man kann nicht einfach eine KI kaufen und erwarten, dass sie funktioniert wie Word. So funktioniert das nicht. Man muss sich vorher mit diesen Themen auseinandersetzen. Deshalb braucht es künftig gerade in der Sozialen Arbeit eine Art Betriebserlaubnis für den Einsatz von KI. Und vor allem brauchen wir Sie als kritische Nutzerinnen und Nutzer, die die Ergebnisse verstehen und verantwortungsvoll in der Praxis umsetzen. An dieser Stelle gebe ich nun an meinen Kollegen weiter.

 

KI in der Kinder- und Jugendhilfe von Prof. Dr. Michael Macsenaere – Vortrag Teil 2

Kurz vor der Pause übernehme ich noch einmal mit einem kurzen Part.

Bevor ich richtig starte, möchte ich nochmal betonen – was Christina Plafky eben schon sagte: Bitte verabschieden Sie sich von der Vorstellung, man könne einfach ein KI-Tool einkaufen und hätte damit alle anstehenden Herausforderungen gelöst. So einfach ist es nicht. Das Tool ist nur ein erster Baustein. Die eigentliche Arbeit – und auch der Nutzen – beginnen erst mit der Implementierung. Diese umfasst mehrere Schritte und Dimensionen, die gut aufeinander abgestimmt sein müssen, damit wir die positiven Effekte erzielen und gleichzeitig die Risiken zumindest begrenzen können. Denn wenn wir KI blind einsetzen, ohne die Risiken systematisch zu minimieren, ist sie kein sinnvolles Werkzeug, sondern eher eine Gefahr.

Kommen wir also zum letzten Teil vor der Pause – mit einem Beispiel, das zu einer Frage aus dem Publikum passt: Welche Tools gibt es schon im Bereich der sogenannten Predictive Analytics? Damit sind datenbasierte Vorhersagen gemeint – nicht durch große Sprachmodelle, sondern durch klassische neuronale Netze. Sie unterstützen bei der Erstellung von Prognosen und Diagnosen. Im medizinischen Bereich zeigen kontrollierte Studien bereits: Mit guter Datenbasis sind Diagnosen durch neuronale Netze oft besser als ärztliche Diagnosen. Das wird – mit etwas Verzögerung – auch in unserem Bereich Einzug halten.

Prof. Dr. Michael Macsenaere beim Podium 2025, Foto von: Meike Discher

Ein konkretes Beispiel: Wir am IKJ haben zusammen mit Jugendämtern ein Tool entwickelt, das die Indikationsstellung – also die Zuweisungsqualität in den Allgemeinen Sozialen Diensten (ASD) – unterstützt. Predictive Analytics sind international übrigens deutlich weiter verbreitet als bei uns, vielerorts schon praktisch im Einsatz. Deshalb ist es so wichtig, dass wir hierzulande zuerst den fachlichethischen Rahmen gestalten – und erst dann die technische Umsetzung, angepasst an die Bedürfnisse der Praxis. Zur Zuweisungsqualität: In der Wirkungsforschung haben wir bundesweit rund 17.000 Fälle ausgewertet. Ergebnis: Etwa 60 Prozent der Hilfen in den ASDs sind idealtypisch gewählt. 10 bis 12 Prozent sind „mäßig“ – also nicht optimal, aber ohne negative Folgen. Problematisch ist der sogenannte rote Bereich: Bei etwa 27 Prozent der Fälle werden Hilfen gewählt, die voraussichtlich zu negativen Entwicklungen führen. Das ist alarmierend. Zwar lag der Wert vor 20 Jahren noch über 30 Prozent, aber seit sechs bis sieben Jahren stagniert er bei 27 Prozent. Gründe sind u.a. Corona, aber auch strukturelle Faktoren wie Verfügbarkeitsprobleme: Nicht immer stehen die idealen Hilfen tatsächlich zur Verfügung. Mit KI-Unterstützung ist zukünftig zu erwarten, dass der rote Balken merklich reduziert werden kann – möglicherweise auf unter 20 Prozent, was einen großen Fortschritt darstellen würde.

Ein weiteres Problem: Fachkräfte berichten von hoher Arbeitsbelastung und starker Fluktuation im ASD. Zudem werden manchmal Hilfen aus Kostengründen gewählt, die nicht optimal sind. Mein Kollege Jan Kepert hat darauf hingewiesen, dass dieses Vorgehen im Widerspruch zum SGB VIII und dem Untermaßverbot steht – also rechtlich unzulässig, auch wenn selten dagegen geklagt wird. Eine hochkritische Situation. Hier kann KI helfen, indem sie datenbasiert Hinweise gibt, welche Hilfen in einer bestimmten Ausgangslage am geeignetsten sind. Aber: Das sind nur Hinweise auf Basis vergangener Erfahrungen. Die finale Entscheidung muss immer die Fachkraft treffen – sonst wäre das ein Verstoß gegen das Human-in-the-Loop-Prinzip, das ich eingangs mit dem Bild vom „Schweinchen auf dem Thron“ erläutert habe. Mehrere Jugendämter haben hier bereits ihr Interesse signalisiert, weil sie die Fachkräfte-Entlastung dringend brauchen. Sowohl Fachkräftemangel wie auch die hohe Fluktuation erschwert eine qualifizierte Indikationsstellung im ASD. KI kann hier zukünftig unterstützen –als eine neue, empirisch basierte Informationsquelle.

Das war mein letzter Punkt vor der Pause. Danach geht es weiter mit den großen Sprachmodellen, den LLMs.

KI in der Kinder- und Jugendhilfe von Prof. Dr. Christina Plafky – Vortrag Teil 2

Nun kommen wir zum zweiten Teil, der zweiten großen Technologie, die Ihnen wahrscheinlich allen viel bekannter ist als das, worüber wir gerade eben gesprochen haben: Die sprachbasierten Modelle. Das Einzige, was Sie nun verstehen müssen – und da sind wir wieder beim Thema Intelligenz – ist, dass diese Modelle die Wahrscheinlichkeit für das nächste Wort berechnen. Die Technik, die dahintersteckt, ist somit eine Wahrscheinlichkeitsberechnung. Wenn Sie beispielsweise mit ChatGPT sprechen, berechnet diese KI die Wahrscheinlichkeit für das nächste Wort und spuckt das Ergebnis aus. Wie gesagt: Das ist keine Intelligenz, das ist eine Wahrscheinlichkeitsberechnung, die mit wirklich ausgefeilter Technologie extrem schnell im Hintergrund passiert.

Diese Sprachmodelle sind deshalb sehr gut darin, Texte zu analysieren, Muster in Texten zu erkennen und selbst Texte zu produzieren. Das ist mittlerweile weit verbreitet und wahrscheinlich nutzen Sie diese Technologie sogar, vielleicht ohne es zu wissen, da das Modell bereits in vielen Apps integriert ist. Wenn Sie zum Beispiel mit der Telekom kommunizieren oder andere Online-Dienste nutzen, arbeiten Sie mit solchen Chatbots.

Die großen Modelle wie ChatGPT sind natürlich mit einer Unmenge an Daten gefüttert worden. Deswegen sind sie auch in der Lage, mehr zu tun als kleinere Chatbots. Aber das, was dahintersteckt, ist im Grunde bei allen das Gleiche. Auf der Folie sehen Sie nun ein Beispiel von Swisscom, also der Schweizer Variante der Telekom, und ein Beispiel von den Kolleginnen und Kollegen der Zürcher Hochschule: einen Chatbot, der explizit für ukrainische Flüchtlinge entwickelt wurde. Der Chatbot leitet durch den Dschungel der Gesetze und Anspruchsmöglichkeiten, die man in der Schweiz hat. Er funktioniert sehr gut – allerdings nur, wenn man im Kanton Zürich wohnt, weil natürlich jeder Kanton in der Schweiz eigene Regeln hat.

Wichtig ist hier zu wissen: Auch dieser Chatbot arbeitet mit dem Prinzip der Wahrscheinlichkeitsberechnung für das nächste Wort. In diesem Beispiel ist das Modell ein ganz simples, mit einer kleinen Anzahl an Wörtern und ohne eine große Wissensbasis, weil es sich um einen kleinen Chatbot handelt. Aber gerade in der Sozialen Arbeit verbreiten sich solche Varianten immer mehr, weil sie natürlich bei der täglichen Arbeit unterstützen können. Zum Beispiel in der Erstberatung: Dort kann so ein Chatbot helfen herauszufinden, ob jemand überhaupt Ansprüche auf einen bestimmten Service hat oder nicht. Das kann sehr hilfreich sein.

An einer Stelle muss ich hier der Senatorin von heute Morgen widersprechen: Künstliche Intelligenz ist mittlerweile durchaus in der Lage, nicht nur mit einem zu kommunizieren, sondern auch Teilaufgaben der Beziehungsgestaltung zu übernehmen. International gibt es dazu viele Projekte. Hier ist ein Beispiel von den Kolleginnen und Kollegen aus Nürnberg, die ein E-Beratungstool auf Chatbot-Basis entwickelt haben. Auch das ist eine mittelmäßig ausgearbeitete Variante, natürlich überhaupt nicht vergleichbar mit dem, was Sie von ChatGPT kennen. Ich mache mit meinen Studierenden immer ganz gerne eine Umfrage: Wer nutzt solche Sprachmodelle auch privat? Zum Beispiel zur Beziehungsberatung, Traumdeutung oder Ähnlichem? Und es ist erstaunlich, wie viele tatsächlich ChatGPT dafür verwenden. Wenn Sie das selbst mal ausprobieren, werden Sie sehen: Die Antworten sind doch erstaunlich überzeugend. Man kann in so eine Konversation wirklich einsteigen und bekommt ein ganz anderes Feedback als sonst. Das genannte Beispiel geht ein bisschen in diese Richtung, ist aber natürlich thematisch reduziert und lange nicht so umfangreich wie die großen kommerziellen Anbieter.

Diese Erkenntnis führt mich zu einem ganz wichtigen Punkt, nämlich zur Frage der Beziehungsgestaltung. In sehr vielen internationalen Forschungsprojekten zeigt sich mittlerweile, dass solche Chatbots nicht nur in der Sozialen Arbeit interessant sind, sondern natürlich auch für den medizinischen und den psychologischen Bereich. Genau dazu wird aktuell sehr viel geforscht und das Thema stellt eigentlich einen ganz neuen Forschungsbereich dar, der sich aufgetan hat. Bereits festgestellt hat man hier, dass Menschen anfangen, mit diesen Chatbots eine Form von Beziehung einzugehen. Man kann das dann als Beziehung, Pseudo-Beziehung oder Semi-Beziehung bezeichnen. Aber egal wie: Es ist eine Form von Beziehung. Die Menschen entwickeln, obwohl sie wissen, dass sie hier mit einem Chatbot kommunizieren und dass das kein Mensch, sondern eine Maschine ist, interessanterweise trotzdem so etwas wie Gefühlsregungen gegenüber diesen Tools. Das klingt auf den ersten Blick vielleicht ein bisschen merkwürdig. Aber gerade für die Soziale Arbeit ist das, glaube ich, ein Thema, das wir nicht übersehen dürfen. Denn hier stellen sich natürlich wichtige Fragen: Droht ein Realitätsverlust? Wird man abhängig davon? Zieht man sich aus anderen sozialen Kontakten zurück, wenn man so etwas wie eine „Freundschaft“ mit einem Chatbot entwickelt? Solche Fragen sind real und müssen bearbeitet werden.

Ebenfalls hat man festgestellt, dass die Designentscheidung eine große Rolle spielt. Wenn man beispielsweise das Aussehen und den Namen des Avatars selbst auswählen darf, steigt die Bereitschaft, mit diesem Chatbot in eine Beziehung zu treten und eine Bindung einzugehen. Das wirft natürlich Fragen nach Manipulation und der Einmischung von Technikentwicklern in solchen Prozessen auf. Das betrifft letztlich auch die Beteiligung der Nutzerinnen und Nutzer an diesen Prozessen. In einer Forschungsstudie hat man beispielsweise ChatGPT bestimmte Hinweise gegeben, wie es sich verhalten soll. In diesem Fall wie ein Therapeut. Hier wurden Menschen in eine therapeutische Sitzung mit diesem Large Language Model geschickt, welche danach von den Nutzerinnen und Nutzern sowie den ausgebildeten Psychologinnen und Psychologen bewertet wurde. Das Ergebnis ist tatsächlich sehr überraschend. Viele sagten, dass die Beratung genauso gut war wie die durch einen realen Menschen. Manche fanden es sogar angenehmer, weil Schamgefühle nicht so präsent waren. Hier landet man dann schnell wieder bei den Themen Macht, Manipulation und der Frage, wie viel Einfluss man eigentlich auf die Art und Weise hat, wie zum Beispiel ChatGPT entwickelt ist. Deswegen widerspreche ich der Senatorin: Das System ist darauf ausgelegt, empathisch zu wirken. Sie werden verstanden, wenn Sie mit einem Chatbot kommunizieren. Sie kriegen eigentlich immer eine Bestätigung. Egal was Sie machen, es heißt immer: „Sie sind toll“ oder „Das war eine super Antwort“ oder „Das ist ja interessant“. ChatGPT ist darauf trainiert, einen immer zu bestätigen. Viele Menschen finden das extrem angenehm, weil sie auf diesem Weg nicht verurteilt werden. Bei Menschen hingegen läuft man immer Gefahr, dass man in irgendeiner Form verurteilt wird – und das haben Sie bei so etwas eben nicht. Von daher ist das gerade im therapeutischen Setting, gerade auch für vulnerable Menschen oder auch für Jugendliche, eine ganz neue Art und Weise, eine Beziehung zu gestalten. Ich sage das jetzt nicht wertend, denn das ist die Zukunft, mit der wir uns auseinandersetzen müssen.

Es gibt, wie gesagt, viel Forschung dazu. Mittlerweile wird sogar dazu geforscht, ob Menschen sich tatsächlich in Chatbots verlieben. Diese Menschen sprechen darüber, als seien sie tatsächlich in einer Liebesbeziehung und bezeichnen es auch ausdrücklich so. Sie schildern die Schwierigkeiten, die entstehen, wenn sie im realen Leben ihrer Mutter oder ihrem Vater erklären müssen, dass sie in einer Beziehung mit einem Chatbot sind. Durch diese Schwierigkeiten entstehen dann Fachforen, in denen sich Menschen online über ihre Erfahrungen mit den Chatbots austauschen und darüber sprechen, wie das ihr reales Leben beeinflusst. Somit entwickelt sich eine neue Welle, die im Kontext der Lebensweltorientierung der sozialen Arbeit etwas ist, das wir im Blick haben müssen. Denn das wird natürlich auch unser allgemeines Beziehungsverhalten und vor allem auch das Beziehungsverhalten als Fachkraft zu unseren Klienten beeinflussen.

Gleichzeitig bietet das auch eine Möglichkeit, Unterstützung für Gruppen anzubieten, die sonst vielleicht keine soziale Arbeit in Anspruch nehmen würden. Menschen, die nicht zur Beratungsstelle gehen würden oder aus anderen Gründen keinen Zugang finden. Wenn man das fachlich gut einbettet, kann das ein hilfreiches Angebot sein. Auch hier sehen wir wieder: Die Art und Weise, wie wir solche Systeme nutzen und einsetzen, hat einen Einfluss darauf, welche Folgen das hat und welche Konsequenzen daraus entstehen. Von daher sehen wir auch bei den Large Language Models, dass man diese mit Vorteilen aber eben auch mit Nachteilen nutzen kann. Ich hoffe, dass wir uns in der Praxis nicht in eine Richtung entwickeln, in der wir einfach möglichst viel unserer Verwaltungsarbeit an diese Systeme abgeben, befürchte allerdings, dass genau das ein Teilergebnis sein könnte.

Zum Thema der automatisierten Aktennotizerstellung habe ich zwei Projekte durchgeführt, die ich am Nachmittag vorstellen werde. Das Einzige, was mir an dieser Stelle beim Thema Chatbots noch wirklich wichtig ist, ist die Frage des Datenschutzes. Ich weiß von meinen Studierenden, dass viele mittlerweile in den Einrichtungen ChatGPT nutzen, um Aktennotizen zu erstellen und gesagt wird: „Aber ich anonymisiere ja“. Hier möchte ich noch einmal ausdrücklich dafür plädieren, das nicht zu tun. Und zwar nicht nur, weil Sie bei ChatGPT ein Profil haben. Wer sich schon einmal mit Amazon und der Profilerstellung dort beschäftigt hat, weiß: Bei Frauen kann Amazon zum Beispiel allein durch das veränderte Kaufverhalten oder Suchverhalten erkennen, wenn sie kurz vor ihrer Periode stehen oder wenn sie schwanger sind und diese Infos per KI als Profil zusammenstellen. Wir haben die Verpflichtung, die Daten unserer Klientinnen und Klienten nicht an irgendwelche Drittanbieter zu geben. Und das nicht einmal, um so etwas wie eine Aktennotiz zu erstellen. Selbst wenn Sie das anonym machen, kann man über Ihr Profil oder Ihre IP-Adresse ziemlich genau feststellen, wo der Computer gewesen ist, als der Text geschrieben wurde. Daraus lassen sich Rückschlüsse ziehen. Oder Sie haben einen Klienten mit einer spezifischen Kombination von Diagnosen, die einzigartig ist. Auch dadurch kann man Profile erstellen, die es kriminellen Personen wie etwa Pädophilen oder anderen Menschen mit schlechten Absichten ermöglichen, Rückschlüsse auf Einzelpersonen zu ziehen. Von daher rate ich Ihnen, dies nicht zu tun. Sprechen Sie mit Ihren Einrichtungsleitungen darüber, dass datenschutzkonforme KI-Tools angeschafft werden. Zum Beispiel die KI, die Sie auch am Nachmittag vorgestellt bekommen oder auch das, was wir entwickelt haben. Es gibt noch einige andere Tools, die genau das können: Aktennotizen datenschutzkonform erstellen, ohne dass die Daten irgendwo landen, wo Sie sie nicht mehr kontrollieren können. Und selbst wenn Ihnen die Anbieter sagen, dass die Server alle datenschutzkonform sind, rate ich Ihnen trotzdem davon ab, die sensiblen Daten hier einzupflegen. Um die Gefahr zu verdeutlichen, berichte ich Ihnen noch von einem Beispiel. An der Hochschule nutzen wir Microsoft Teams mittlerweile für alles. Letztens habe ich per E-Mail den Chatverlauf von einem Teams-Meeting geschickt bekommen, zu dem ich nicht einmal eingeladen war. Vom Kanton Zürich, mit dem ich ein halbes Jahr lang keinen Kontakt hatte. So viel zum Thema Datenschutz. Und das können und dürfen wir für unsere Klienten nicht riskieren. Und jetzt übergebe ich an dich, Michael.

KI in der Kinder- und Jugendhilfe von Prof. Dr. Michael Macsenaere – Vortrag Teil 3

Danke für die Einführung in die LLMs, die Large Language Models. Ich möchte nun einige Optionen aufzeigen, die sich für die Jugendhilfe durch diese Modelle ergeben. Vieles wurde schon angesprochen – ich bündele und ergänze es hier.

Ein erster Punkt: Die „Sau im Dorf“. Also die Idee, dass Texte generiert werden können, die für verschiedene Einsatzbereiche angepasst und nutzbar sind. Genau das ermöglichen LLMs. Dafür brauchen wir allerdings Voraussetzungen: genügend und vor allem qualitativ hochwertige Daten. Denn wenn der Input schlecht ist, ist es auch der Output – Garbage in, Garbage out.

Ein zweiter Punkt: Nur ein LLM einzusetzen, reicht nicht. Neben Datenschutz gibt es weitere Aspekte. Die gängigen Modelle – ChatGPT, Perplexity, Gemini, Claude, Mistral aus Paris oder auch chinesische Modelle wie Deep Seek oder Qwen – sind zwar leistungsfähig, aber nicht für die Jugendhilfe trainiert. Sie arbeiten mit allgemeinen Daten, die unsere Fachfragen nicht hinreichend abbilden. Das Ergebnis wirkt sprachlich glatt, ist aber inhaltlich oft unscharf, fachlich ungenau und fachterminologisch schwach. Für unsere Zwecke ist das in der Regel nicht ausreichend. Die Modelle sind vom Grundsatz her geeignet – aber nur dann, wenn sie jugendhilfespezifisch angepasst und implementiert werden. Eine KI ist kein Monatsabo. Sie muss Schritt für Schritt in die Einrichtung eingeführt werden. Erst dann kann sie nachhaltig wirken. Besonders große Chancen sehe ich in jugendhilfespezifisch trainierten LLMs – dazu später mehr.

Schauen wir auf die nächste Folie: Multimodalität. Die aktuellen Modelle verstehen seit gut einem Jahr nicht nur Text. Sie können Daten aus EMails, Datenbanken, internen Quellen oder sogar Telefonanrufen verarbeiten. Auch Postverkehr, Bücher (sofern rechtlich zulässig), Protokolle von Teams-Sitzungen, Bilder oder Videos können eingebunden werden. Für uns eröffnet das die Möglichkeit, Informationen aus vielen Medien gleichzeitig nutzbar zu machen. Meine Vision ist, dass wir in einem Jahr so weit sind, alles, was Sie in Ihrer Einrichtung an Datenquellen vorliegen haben, in ein neuronales Netz einlesbar ist.

Noch spannender ist der Output. Multimodalität bedeutet, dass Ergebnisse adressatengerecht ausgegeben werden können. Für Jugendliche zum Beispiel über WhatsApp, für Gerichte in juristisch kompatibler Form – und beides aus derselben Datenbasis. Das KJSG verpflichtet uns ohnehin zu verständlicher Kommunikation: Informationen müssen „verständlich, nachvollziehbar und wahrnehmbar“ sein. KI bietet Optionen, dieses erheblich zu verbessern – mit nur minimalem Mehraufwand. In diesem Sinne stellen auch Fremdsprachen kein großes Hindernis mehr dar. Ein weiterer Vorteil: die Geschwindigkeit. Rückmeldungen erfolgen fast in Echtzeit – mit nur ca. 10 bis 15 Sekunden Verzögerung nach dem Prompt. Für Beratungskontexte ist das enorm. Hinzu kommt die Möglichkeit, Lebensweltorientierung neu zu leben: Inhalte lassen sich so vermitteln, dass sie an Interessen der Adressatinnen und Adressaten andocken – etwa an dem Lieblings-Fußballverein. Das kann Motivation und Empowerment merklich fördern. Ich gehe davon aus, dass wir in ein bis zwei Jahren solche jugendhilfespezifischen multimodalen Systeme praktisch nutzen werden.

Chatbots sind ein weiterer Aspekt. Sie können bereits heute in Beratungssituationen eingesetzt werden – etwa in Projekten von Robert Lehmann an der TH Nürnberg. Zwar sind sie zunächst auf Basisfunktionen beschränkt, doch sie sind rund um die Uhr verfügbar. Auch zu Zeiten, wenn Beratungsstellen geschlossen sind, geben sie Rückmeldungen – ob Heiligabend um 23.30 Uhr oder bei akuten Konflikten. Fachlich muss das weiterentwickelt werden, aber Studien – auch aus Medizin und Psychologie – zeigen: Das fachliche Potenzial ist enorm.

Wir müssen zudem bedenken: In zwei Jahren werden Kinder und Jugendliche längst ihre eigene KI selbstverständlich nutzen – in Kommunikation, Interaktion, vielleicht sogar in Beziehungsfragen. Das ist Realität, die längst begonnen hat, wie Character AI und Replika zeigen. Für uns stellt sich die Frage: Welche Formen wollen wir zulassen? Wo Risiken minimieren? Welche Chancen ergreifen?

Empirisch bemerkenswert ist, dass Chatbots von Patientinnen und Patienten oft als empathischer erlebt werden als Ärztinnen oder Ärzte. Ob das echte Empathie ist, kann man zurecht diskutieren – entscheidend ist: es kommt so an. Und genau das wird auch für die Jugendhilfe eine zentrale Frage werden.

Ein weiteres Feld: Schule. International wird der flipped classroom diskutiert: Wissenserwerb geschieht zu Hause, meist per Handy, vermittelt durch einen Chatbot – individualisiert und interaktiv. Die Schule bleibt der Ort für soziales Lernen, für Begleitung durch Lehrkräfte als Mentorinnen und Mentoren. Zudem zeigen Metaanalysen hohe Effektstärken für einen KI-gestützten Unterricht: Lernleistung, Selbstwirksamkeit und komplexe kognitive Prozesse werden demnach mit einem KI-gestützten Unterricht signifikant verbessert. Für Deutschland ist das noch Zukunft, aber die Entwicklung hat begonnen. Denkbar wäre auch für die Jugendhilfe, dass KI zu einer inklusiveren Ausrichtung beiträgt – wenn sie gut gestaltet ist.

Ein Beispiel aus unserer Arbeit: Wir haben ein großes Projekt gestartet, um Wissensmanagement in Einrichtungen nutzbar zu machen. Normalerweise läuft das in drei Schritten: Zunächst wird externes Fachwissen eingespeist – Bücher, Artikel. Dann auch internes Wissen: Erfahrungen, Dokumente, Haltungen einer Einrichtung, natürlich datenschutzkonform. Am Ende steht ein Chatbot, der dieses Wissen zugänglich macht. Fachkräfte können dann konkrete Fälle eingeben und Empfehlungen erhalten – basierend auf externem und internem Wissen. Das ist nicht nur eine Chance für effizientere Arbeitsabläufe, sondern auch eine große Hilfe bei Onboarding und Fluktuation.

Neben den LLMs gibt es weitere Felder: etwa ressourcenorientierte Pädagogik. Marc Rothballer aus Oberbayern arbeitet hier mit bildgenerierenden Verfahren, schon im frühkindlichen Bereich. Kinder können mit einfachen Sprachbefehlen eigene Bilder erstellen und weiterbearbeiten. Das fördert Selbstwirksamkeit. Für Jugendliche gilt Ähnliches mit Musik: eigene Songs oder Tracks, mit der eigenen Stimme selbst gestalten – für die nahe Zukunft ein pädagogisch großes Potenzial. Hinzu kommt die Videogenerierung – etwa mit Sora von OpenAI. Diese Technologien werden junge Menschen ohnehin nutzen. Wir müssen uns umgehend fragen, wie wir sie hierbei pädagogisch sinnvoll begleiten.

Ein letzter Punkt: Kinderschutz. Im ASD prasseln viele Informationen gleichzeitig herein, oft aus unterschiedlichen Medien. Hier kann KI helfen, diese Daten zu bündeln und zu strukturieren – selbstverständlich mit finaler Prüfung durch Fachkräfte. Dazu gibt es bereits zwei Arbeitsgruppen in Deutschland: eine unter Robert Lehmann an der TH Nürnberg und eine mit IKJ, arf Gesellschaft für Organisationsentwicklung und beteiligten Jugendämtern. Auch hier ist der praktische Einsatz in naher Zukunft zu erwarten.

Das waren einige Felder, die sich rund um LLMs und verwandte KI-Anwendungen eröffnen. Ich übergebe nun wieder an Daniel Hahn, der den Bogen zur Praxis schlägt.

Fragerunde

Daniel Hahn: Das war jetzt eine Menge Input. Bevor wir aber gleich zu einer kleinen Exkursion aufbrechen, ist es mir wichtig, dass wir kurz Raum für Fragen schaffen. Denn ich nehme Sie jetzt mit in einen Teil, der viel mit Ihrer eigenen Realität zu tun hat – aber weniger mit den Prototypen und dem, was wir bisher an konkreten Beispielen gesehen haben. Deshalb: Wer jetzt noch eine Frage zum gerade Gehörten hat – gerne! Maximal fünf Minuten, wir wollen den Zeitrahmen einhalten. Und falls später noch etwas offenbleibt: Heute Nachmittag stehen wir Ihnen natürlich auch gern zur Verfügung.

Frage aus dem Publikum

Vielen Dank! Ich komme aus dem VPK-Landesverband Hamburg und Schleswig-Holstein und folge dieser Veranstaltung mit großem Interesse. Ich muss zugeben, dass ich bei der Frage nach der Empathie eben kurz einen kleinen Schreck bekommen habe. Ich habe deshalb direkt mal in die gerade zitierte Studie geschaut. In der Studie wurde ja untersucht, wie sich Fragen und Antworten in einem textbasierten Forum zwischen Ärztinnen und Ärzten und Patientinnen und Patienten verhalten – also rein schriftlich. Genau das ist natürlich auch das bevorzugte Medium von ChatGPT. Interessant war: Die Antworten der KI waren dort fast viermal so lang wie die der realen Ärztinnen und Ärzte. Allein durch diese Länge entsteht natürlich schon ein gewisser Empathie-Vorteil zugunsten der KI – was ich durchaus problematisch finde. Gleichzeitig beruhigt es mich ein wenig, weil ich momentan noch nicht das Gefühl habe, dass wir die Empathie gleich komplett an Chatsysteme verlieren. Vielleicht liegt hier ja sogar eine Chance: Wenn Ärztinnen und Ärzte sich gelegentlich etwas mehr Zeit nehmen und ausführlicher antworten, könnte das zu besseren Ergebnissen führen. Insofern bin ich wieder etwas entspannter. Aber Sie haben natürlich recht – gerade bei textbasierten Interaktionen ist das ein ganz wesentlicher Punkt.

Antwort
Prof. Dr. Michael Macsenaere

Mittlerweile gibt es solche Systeme ja nicht mehr nur textbasiert, sondern auch über andere Medien – zum Beispiel über Avatare, die zumindest in menschlicher Form agieren können. Auch das ließe sich genauso testen, und ich glaube ehrlich gesagt nicht, dass die Ergebnisse dadurch schlechter ausfallen würden. Ich nehme die Ergebnisse aus der Studie wirklich ernst – aber trotzdem vielen Dank für Ihre Rückmeldung.

Antwort
Prof. Dr. Christina Plafky

Wenn ich dazu aus psychologischer Sicht noch etwas ergänzen darf: Ich halte die Sorge für absolut berechtigt. In den Studien, die ich dazu gesehen habe, zeigt sich klar: Es reicht nicht, sich zurückzulehnen und zu sagen, das liege nur an der Kürze der menschlichen Antworten. Das ist nicht der entscheidende Punkt. Viel zentraler ist, dass in menschlicher Kommunikation oft eine wertende Haltung mitschwingt – sei es durch unseren Blick, durch Körpersprache oder andere nonverbale Signale. Genau das fällt bei KI-Systemen weg. Auch die Scham fällt weg. Menschen erleben die Antworten dieser Systeme als bestätigend und empathisch – nicht zuletzt, weil sie genau daraufhin trainiert wurden.

Natürlich könnten wir jetzt eine Debatte über Linguistik führen: Warum benutzen wir eigentlich dieselben Wörter wie die KI, wenn wir über Empathie sprechen? Denn echte Empathie ist ja ein Gefühl – etwas, das eine KI per se nicht empfinden kann. Aber wie du schon gesagt hast, Michael: Sie kann dieses Gefühl beim Gegenüber auslösen. Und darin ist sie erstaunlich gut. Deshalb glaube ich nicht, dass wir uns entspannt zurücklehnen und sagen können, dass unsere Kernkompetenz davon unberührt bleibt. Denn das sehe ich so nicht.

Blick auf das Publikum beim Podium 2025

Wenn Sie sich die Studien zu Chatbots wie Replika, Wysa oder Woebot anschauen – all diese Tools, die man ganz einfach aufs Smartphone laden kann, übrigens auch bei uns frei verfügbar –, dann zeigt sich ein klares Bild: Diese Systeme sind niedrigschwellig zugänglich. Man muss dafür keine Beratungsstelle aufsuchen oder eine Genehmigung einholen. Klientinnen und Klienten können sie direkt nutzen. Und die Resonanz ist durchweg positiv – auch im Kontext von psychischen Belastungen wie Sucht, Schwangerschaft, pränataler Depression und vielem mehr. Es gibt mittlerweile zahlreiche Studien, die zeigen: Diese Chatbots leisten eine enorm gute Unterstützung. Teilweise ist ihre Wirksamkeit sogar vergleichbar – wenn nicht gar besser – als das, was Nutzerinnen und Nutzer von Fachkräften erfahren haben.

Gerade bei Studien zur Suchtbehandlung, in denen Replika oder Wysa begleitend zur klassischen Therapie eingesetzt wurden, zeigen sich deutliche Effekte: Die Rückfallquote war geringer, die psychische Stabilität höher – im Vergleich zu Kontrollgruppen ohne den Einsatz solcher Chatbots. Insofern: Ja, die Sorge ist berechtigt. Aber die entscheidende Frage ist doch, was genau diese Sorge bedeutet. Werden wir ersetzt? Das glaube ich nicht. Aber wir haben es mit einem zusätzlichen Werkzeug zu tun – einem Tool, das unsere Arbeit bereichern und verbessern kann. Wenn wir es in diesem Sinne verstehen, bekommt das Ganze eine positive Wendung: Dann können wir es als Ressource nutzen – vorausgesetzt, wir setzen es bewusst und professionell ein. Was mir dabei besonders wichtig ist zu betonen: Die Klientinnen und Klienten nutzen diese Tools privat. Ich sehe einige von Ihnen nicken – Sie kennen das offenbar aus der eigenen Praxis. Wir kommen an diesem Thema also gar nicht vorbei. Es geht längst nicht mehr nur darum, ob wir solche Systeme in unsere Beratungsarbeit integrieren – sie sind ohnehin schon im Alltag der Menschen angekommen.

Und genau deshalb müssen wir auch mögliche Risiken im Blick behalten. Etwa die Gefahr einer Abhängigkeit. In den USA laufen aktuell zwei Gerichtsverfahren gegen Anbieter solcher Chatbots. Eltern verklagen die Unternehmen, weil ihre Kinder eine emotionale Beziehung zu dem System aufgebaut haben – und sich schließlich das Leben genommen haben. Durch die ständige Bestätigung, die diese Systeme geben – oft gut gemeint, aber unreflektiert –, können auch problematische Gedanken und Verhaltensweisen verstärkt werden, etwa suizidale Tendenzen. All das zeigt: Hier entsteht ein neues Handlungsfeld für uns als Fachkräfte – und wir müssen uns intensiv damit auseinandersetzen.

Frage aus dem Publikum

Guten Tag, ich komme ebenfalls aus Schleswig-Holstein und habe mich gefreut, dass Sie das Thema Ressourcenorientierung aufgegriffen haben – das hatte ja auch der Kollege vorhin schon angesprochen. Es ist tatsächlich schade, dass dieser Aspekt oft zu kurz kommt. Allerdings muss ich ehrlich sagen: Ihr Beispiel dazu hat mich sehr irritiert. Ich fand es sogar hochgradig problematisch. Denn ich halte es für äußerst gefährlich, kleinen Kindern schon den Zugang zu KI-basierten Anwendungen zu ermöglichen – gerade in einem Alter, in dem es doch zunächst um grundlegende Entwicklungsaufgaben geht, wie etwa die Hand-Auge-Koordination oder das Schreiben mit Stift und Papier. Das beschäftigt mich sehr – und ehrlich gesagt, fand ich dieses Beispiel in dem Kontext völlig unpassend.

Antwort
Prof. Dr. Michael Macsenaere

Marc Rothballer würde an dieser Stelle wohl antworten, dass es sich keinesfalls um ein ausschließendes oder gar ersetzendes Angebot handelt – um Gottes Willen, nein! Sondern vielmehr um ein befristet eingesetztes Medium im Sinne einer ressourcenorientierten Pädagogik. Es geht also darum, gezielt und zeitlich begrenzt ein bestimmtes Medium, das an den Interessen der jungen Menschen ansetzt, pädagogisch begleitet interaktiv zu nutzen – und nicht um einen Ersatz für bewährte pädagogische Methoden.

Frage aus dem Publikum

Hallo, ich komme aus dem VPK Baden-Württemberg und hätte noch eine Frage zu Ihrer Antwort eben, in der es um die Chatbots und die angeblich „besseren“ Antworten ging. Da stellt sich mir die Frage: Bessere Antworten – für wen eigentlich? Ist damit die fachlich fundierte, also objektiv „richtige“ Antwort gemeint? Oder ist es die Antwort, die für die betroffene Person subjektiv besser ist – also die, die sie gerade hören möchte?

Antwort
Prof. Dr. Christina Plafky

Das ist eine super Frage – und ich finde, das ist wirklich eine ganz zentrale Unterscheidung. Die Studie, auf die ich mich bezogen habe – also die psychologische Studie, die ich Ihnen gezeigt habe – hat tatsächlich beides untersucht: Zum einen, wie Fachleute, in diesem Fall Psychologinnen und Psychologen, die Antworten bewerten. Und da war die Einschätzung: Auch fachlich waren die Antworten der KI durchaus gut. Aber der entscheidendere Punkt ist, finde ich, wie die Antworten bei den Adressatinnen und Adressaten ankommen. Was wirkt wirklich? Und letztlich zählt doch das, was beim Gegenüber tatsächlich ankommt. Wenn die Menschen die Antwort als empathisch, hilfreich und wirkungsvoll empfinden, dann ist es im Ergebnis fast zweitrangig, ob sie fachlich perfekt ist oder nicht. Die Wirkung entscheidet.

Antwort
Prof. Dr. Michael Macsenaere

Jetzt kommt noch einmal die Stimme aus der Praxis. Ich halte diesen Blickwinkel für ganz entscheidend. Denn für die Praxis bleibt eine Frage bestehen – nicht als Widerspruch, sondern als Ergänzung: Wie klar sind unsere Worte? Klarheit im Ausdruck – auch dann, wenn das Gegenüber es vielleicht nicht hören will, es aber braucht, um sich weiter entwickeln zu können – ist aus meiner Sicht unverzichtbar. Genau hier liegt zugleich eine Gefahr: Wir erleben in der Pädagogik ohnehin schon eine große Verunsicherung. Etwa bei der Frage, wie wir mit sogenannten „haltlosen“ Kindern umgehen: Wie nah darf ich einem Kind kommen? Ist eine Umarmung noch in Ordnung? Was sagt das Schutzkonzept? Diese Unsicherheiten prägen unseren Alltag. In diesem Zusammenhang hat mich eine Passage aus einem Buch sehr beeindruckt – vielleicht kennen Sie es: Das ist (nicht) mein Zuhause von Valeria Anselm. Einige nicken – ja, ein wunderbares kleines Buch. Dort heißt es sinngemäß: „Ich habe immer dann am meisten für meine Persönlichkeit profitiert, wenn Betreuerinnen und Betreuer bereit waren, die sogenannte professionelle Distanz zu verlassen.“ Beim Lesen dachte ich: Ja, genau! Das hat mich tief berührt. Natürlich ist das Thema Nähe und Distanz komplex, und wir müssen es hier nicht umfassend diskutieren. Aber ich finde wichtig zu betonen: Wir müssen in unserer Arbeit Nähe zulassen. Es braucht klare Worte. Es braucht Vorbilder. Und es braucht manchmal auch den Mut, Dinge auszusprechen, die nicht angenehm sind – aber heilsam. Und ich weiß, Christina, dass Du das – als Du über Wirkung gesprochen hast – genau in diesem vielschichtigen Sinn gemeint hast.

Antwort
Prof. Dr. Christina Plafky

Ja, genau. Was mir an dieser Stelle wirklich wichtig ist – auch nochmal im Hinblick auf das Stichwort Ressourcenorientierung – ist folgender Gedanke: Ich glaube, dass sich hier für unsere Klientinnen und Klienten auch die Möglichkeit eröffnet, so etwas wie eine Zweitmeinung einzuholen – und zwar unabhängig von uns Fachkräften. Das kennen wir aus der Medizin ja schon länger – Stichwort „Dr. Google“ –, wo sich auch Ärztinnen und Ärzte irgendwann darauf einstellen mussten und begannen, ihre Patientengespräche anders zu führen. Ich kann mir gut vorstellen, dass durch die heutige freie Verfügbarkeit solcher Systeme genau das jetzt auch in unserer Arbeit ankommt: Unsere Klientinnen und Klienten nutzen solche Tools – sie kommen mit anderem Vorwissen, mit neuen Impulsen, vielleicht auch mit einer veränderten Haltung in die Gespräche. Das kann man natürlich unterschiedlich bewerten – je nachdem, auf welchen fachlichen Informationsquellen diese Menschen unterwegs waren. Aber allein unter dem Gesichtspunkt der Ressourcenorientierung sehe ich darin auch einen echten Empowerment-Ansatz. Es geht um Stärkung, um Selbstwirksamkeit – und das lässt sich durchaus auch positiv betrachten. Kurz gesagt: Es ist ein vielschichtiges Thema – wir könnten sicher noch zwei Stunden weiter diskutieren.

KI in der Kinder- und Jugendhilfe von Daniel Hahn – Vortrag Teil 2

Bevor wir jetzt in die Podiumsdiskussion überleiten, möchte ich Sie gern noch mitnehmen in ein ganz praktisches Thema. Ich hoffe, Sie machen mit mir diese gedankliche Drehung – denn es geht um ein Thema, das sehr viel mit KI zu tun hat, uns im Alltag aber auch ganz konkret betrifft: KI und Social Media. Jeder und jede von uns, der oder die praktisch arbeitet – ob in der direkten Arbeit mit Klientinnen und Klienten oder in einer Einrichtung – stellt sich früher oder später die Frage: Wie gehen wir eigentlich mit dem Bereich Social Media um? Auch mich selbst hat dieses Thema stark beschäftigt – es hat mich ehrlich gesagt ganz schön umgetrieben. Und weil ich ja eher der Geschichtenerzähler bin, möchte ich Ihnen dazu gleich auch eine kleine Geschichte erzählen.

Daniel Hahn beim Podium 2025, Foto von Meike Discher

Zuvor aber etwas Grundsätzliches: Es gibt für die meisten von uns längst keine klare Trennung mehr zwischen dem Online- und Offlinesein, auch wenn wir das lange geglaubt haben. Man kann das vielleicht in aller Konsequenz leben – meine Frau zum Beispiel macht das. Sie ist auf keiner einzigen Social-Media-Plattform. Aber: Sie kriegt eben auch vieles nicht mit. Das ist die Kehrseite der Medaille. Inzwischen muss man sagen: Homepages verlieren immer mehr an Relevanz. Social Media ist die neue Homepage – nicht von morgen, sondern schon von heute. Unsere Kinder und Jugendlichen machen diese Unterscheidung gar nicht mehr – online, offline? Für sie ist das eine Welt. Und ich behaupte: Wir haben es mit einem neuen Jugendkulturraum zu tun, der besetzt werden will – und muss. Aber wir sind dort nicht präsent. Das ist ein Fakt. Und warum? Die Unsicherheit ist groß, gerade im Hinblick auf Datenschutz und rechtliche Risiken. Viele haben – verständlicherweise – Angst, sich strafbar zu machen. Aber ich möchte zu bedenken geben: Unsere Kinder sind dort. Sie sind schon in diesem Raum unterwegs. Wir nicht. Und genau das ist das Problem: Sie sind dort – oft ungeschützt oder nur sehr unzureichend geschützt. Kinder steigen zum Teil aus der realen Welt aus und tauchen ein in eine Art parallele Realität. Ich erzähle Ihnen gleich mehr dazu – konkret an einem Beispiel. Ich würde Ihnen gern von unserem TikTok-Kanal berichten.

Also, zu unserem TikTok-Kanal. Ich war eines schönen Tages im Urlaub – beim Holzspalten, ganz in Ruhe – als plötzlich mein Handy klingelte. Eine unserer Erziehungsleiterinnen war dran und sagte: „Daniel, wir haben ein Problem. Wir haben einen TikTok-Kanal.“ Ich war erstmal völlig überrumpelt. Ich hatte bis dahin keine Ahnung von TikTok. Ich war noch nie auf dieser Plattform. Klar, ich hatte ein paar dieser „TikTok-Reels“ gesehen – Sie wissen schon, diese kurzen Clips – und fand das ehrlich gesagt ziemlich albern. Das kam bei mir überhaupt nicht an. Aber dann: Puls hoch. Nicht, weil ich sauer war – sondern weil ich Angst hatte. Ich habe mein Handy genommen, mir TikTok heruntergeladen – noch zwischen den Holzscheiten – und mir den Kanal angeschaut. 24 Stunden online – und schon 20.000 Follower. Da wurde mir ganz anders. Ich habe sofort alles stehen und liegen lassen, bin in Aktion gegangen, habe Screenshots gemacht, Formulare gesucht, geprüft, ob persönliche Gegenstände oder andere Kinder zu erkennen sind.

Hintergrund: Eine Mitarbeiterin hatte diesen Kanal eigenständig und in guter Absicht eröffnet – im Rahmen einer individualpädagogischen Fördermaßnahme. Sie hatte mit einem Kind gemeinsam Inhalte erstellt – zur Förderung. Gott sei Dank war auf den Videos nicht zu erkennen, wer wir sind. Aber ich dachte mir: Was passiert, wenn 20.000 Menschen wissen, wo unsere Einrichtung ist? Kommen dann Pilgerströme? Rufen Jugendämter an und sagen: „Was läuft denn bei Euch bitte?“ Oder sagen andere: „Ich will auch da untergebracht werden!“

Ich hatte sofort 1.600 Szenarien im Kopf. Meine erste Entscheidung war: Es wird nichts mehr gepostet. Aber: Wir lassen den Kanal online. Und dann habe ich mir die Kommentare angeschaut. Bei manchen Videos gab es 400, 500, zum Teil über 800 Kommentare. Natürlich habe ich nicht jeden einzeln gelesen – ich habe sie durchgescrollt – und da ist mir etwas aufgefallen: Da kommentieren Kinder, Jugendliche, Ehemalige, Kolleginnen und Kollegen, aber auch Menschen, die den sozialen Beruf gerade erst erlernen wollen. TikTok wurde hier zur echten Austauschplattform. Und obwohl ich die Videos selbst eher – sagen wir – suboptimal fand, entstand über die Kommentarfunktion ein bemerkenswerter Dialog. Eine Plattform mit echter Qualität im Austausch.

Das hat bei mir einen Konflikt ausgelöst: Auf der einen Seite die Sorge und die Risiken – auf der anderen Seite das Potenzial. Ich habe dann gesagt: Wir lassen den Kanal online. Ich brauche aber Zeit. Und damit sind wir bei einem zentralen Punkt, über den wir in diesem Zusammenhang sprechen müssen: TikTok & KI – ein hochgefährliches Duo. Ich will das nur kurz anreißen – denn Sie kennen das wahrscheinlich alle schon gut. Aber es ist wichtig:

Der Empfehlungsalgorithmus: Alles, was Sie klicken, liken, kommentieren – Ihr Verhalten wird analysiert. Der Algorithmus lernt von Ihnen und füttert Sie entsprechend. Das ist KI in Reinform.

Die Inhaltsmoderation: TikTok behauptet, dass die Plattform durch Moderation sicherer gestaltet werden soll – Hassrede, Gewalt etc. sollen herausgefiltert werden. Ob das wirklich gelingt, ist fraglich – aber die Mechanik dahinter ist KI-basiert.

Video- und Audioanalyse: Jedes Bild, jedes Video wird analysiert – nicht nur inhaltlich, sondern auch emotional. TikTok erkennt, was für Emotionen transportiert werden – um das Nutzerverhalten noch gezielter zu steuern.

Effekte und Filter: Und schließlich – die „erweiterte Realität“. Die Art, wie sich Kinder und Jugendliche durch Filter und Effekte selbst inszenieren, sich verändern, sich inszenieren. Auch das ist KI-gesteuert – und Teil einer Welt, in der online und offline längst keine Gegensätze mehr sind.

Eine Mitarbeiterin von mir hatte kürzlich ein neues Profilbild – und ich habe sie ehrlich gesagt nicht erkannt. Ich habe sie angesprochen und gesagt: „Du, was ist das für ein Bild? Wer ist das?“ Sie antwortete: „Das bin ich!“ Und genau das ist der Punkt: Erweiterte Realität wird zur Realität. Unsere Kinder, unsere Jugendlichen – ja sogar unsere Kolleginnen und Kollegen – glauben, dass sie das sind. Dieses digital bearbeitete Ich wird zur Identität. Psychologisch gesehen ist das hochsensibel. Ich habe mir in dem Moment auf die Zunge gebissen. Ich wollte ihr eigentlich sagen: „So siehst du aber nicht aus.“ Aber was hätte ich damit ausgelöst? Verunsicherung? Scham? Identitätskonflikt? Das zeigt, wie vorsichtig wir damit umgehen müssen – gerade psychologisch.

Und dann kommt ein weiterer Aspekt dazu: Trendvorhersage. Die KI berechnet ganz genau, welche Trends gerade laufen und welche sich abzeichnen. Allein auf Basis von Klicks, Views und Interaktionen werden Trends nicht nur erkannt, sondern gelenkt. Das bedeutet: Die Plattformen manipulieren, was den Nutzerinnen und Nutzern ausgespielt wird. Social Media ist also längst nicht mehr nur ein Informationskanal. Social Media ist eine Beeinflussungs-, ja sogar eine Manipulationsmacht. Unsere Kinder und Jugendlichen bewegen sich in sogenannten Bubbles – Filterblasen. Je häufiger bestimmte Wörter, Themen, Inhalte auftauchen, desto enger wird diese Bubble. Der Algorithmus reagiert darauf – und schließt andere Perspektiven systematisch aus.

Ein Beispiel: Einige Erziehungsberatungsstellen – vielleicht ist ja jemand hier im Raum aus einer solchen Einrichtung – haben einen TikTok- oder Instagram-Kanal eröffnet. Sie wollten aufklären, Arbeit sichtbar machen, Themen wie Selbstverletzung besprechbar machen. Was ist passiert? Sie landeten in einer Bubble, in der die Algorithmen täglich noch mehr Videos mit selbstverletzendem Verhalten ausgespielt haben. Und das war für die Mitarbeitenden kaum auszuhalten – psychisch wie emotional. Die Frage ist also: Wie hält man so eine Bubble einigermaßen „clean“? Und ich sag ganz ehrlich: Ich wüsste nicht, wie das gehen soll.

Ich gebe Ihnen noch ein Beispiel: Ich habe unser Influencer-Team, das draußen stand, gebeten, etwas zur Demokratiebildung zu machen. Dann kam ewig nichts – und irgendwann schrieben sie mir: „Daniel, wenn wir das machen, dann verunreinigen wir unsere Bubble.“ Das war ein Moment, der mich wirklich nachdenklich gemacht hat. Ich merkte: Wir können Social Media gar nicht so frei nutzen, wie wir wollen. Denn hätten wir etwas Demokratisches, etwas Demokratiebildendes gepostet, wären wir automatisch in den politischen Bereich eingestiegen. Ich sage Ihnen gleich, was der eigentliche Hintergrund unseres Social-Media- bzw. TikTok-Kanals war. Trotzdem bleibt: Wir haben die Verpflichtung, unseren Kindern und Jugendlichen einen gesunden Umgang mit diesen Medien beizubringen. Und das können wir nicht leisten, wenn wir draußen bleiben – wenn wir nicht präsent sind. Das ist ein riesiges Thema. Ein echtes Problem. Wir sind in diesen digitalen Räumen nicht vertreten – aber genau da müssen wir hin. Ich habe den TikTok-Kanal also offengelassen. Ich habe weitergelesen. Nach ein paar Tagen hatten wir 40.000 Follower. Ich habe die Kommentare durchgesehen und gesagt: Okay – wir können den Kanal auf keinen Fall löschen. Aber: Wir sagen nicht, wer wir sind. Ich habe fünf Regeln aufgestellt und das Ganze abgesichert – im Bewusstsein: Wir lassen das jetzt laufen, aber ich kenne das Risiko.

Mir ging es damit wirklich nicht gut. Ich kann Ihnen auch keinen Freifahrtschein für Social Media ausstellen – ganz sicher nicht. Aber ich will Ihnen zeigen, was daraus entstanden ist. Mit diesen Regeln hat es wunderbar funktioniert – bis wir bei 60.000 Followern waren. Und die Kommentare zeigten mir: Das ist unheimlich wichtig. Denn: Wir haben den TikTok-Kanal nicht genutzt, um Werbung für das Haus Nazareth zu machen. Warum auch? Personalgewinnung über TikTok? Vergessen Sie’s. Das ist wirklich nicht relevant. Aber wir haben den Kanal genutzt – und da greife ich etwas auf, was Sie vorhin gesagt haben – um Jugendhilfe in einer verständlichen Sprache für die Kinder und Jugendlichen zugänglich zu machen, die sich auf diesen Plattformen bewegen und Hilfe brauchen. Das ist unsere Aufgabe. Dem haben wir uns verschrieben.

Wir haben dann gesagt: Okay, ab einem gewissen Punkt – bei 60.000 oder 65.000 Followern – gehen wir jetzt ganz bewusst öffentlich damit, wer wir sind. Und was ist passiert? Gar nichts. Wir haben keine Zunahme an Anfragen erhalten. Nichts. Also wirklich – es gab keine besondere Reaktion. Ich selbst bin mittlerweile über eine Stunde pro Tag auf Social Media unterwegs, um zu überprüfen, was dort passiert. Das ist vielleicht das Los, das man gezogen hat, um die Situation einigermaßen sicher einschätzen zu können. Wie dem auch sei: Fakt ist, dieser Kanal hat in Berlin Aufmerksamkeit erregt. Ein großer Träger mit über 2.000 Mitarbeitenden hat mich angerufen und gefragt, ob ich bereit wäre, einen Vortrag zum Thema Social Media zu halten. Ich habe ihm offen gesagt: Ich habe im Grunde keine Ahnung von Social Media – wir haben halt einen TikTok-Kanal. Daraufhin hat man mir folgende Geschichte erzählt:

Ein Mädchen in Berlin war hochgradig suizidal. Das Jugendamt konnte keinen Kontakt mehr zu ihr aufbauen – das Mädchen war ein halbes Jahr verschwunden. Plötzlich klingelte es beim Jugendamt. Das Kind stand vor der Tür und sagte: „Ich bin jetzt bereit für Jugendhilfe.“ Wirklich – genau so ist es passiert. Keine Übertreibung. Natürlich hat man sie gefragt: „Wie kam es zu dieser Entscheidung?“ Und sie sagte: „Ich habe einen TikTok-Kanal gesehen. Dort wurde Jugendhilfe komplett erklärt. Ich habe keine Angst mehr.“ Und dann hat sie sich helfen lassen – hier und jetzt, in der Realität. Sie kam in eine Einrichtung der Kinder- und Jugendhilfe – ich glaube, hier in Berlin – zu dem Träger, der mich dann später angefragt hat. Und dem Kind konnte geholfen werden.

Das ist sicher ein Einzelfall, der zufällig öffentlich wurde. Aber ich sehe an den Kommentaren und daran, wie darüber gesprochen wird, wie wichtig dieser Kanal ist. Inzwischen nutzen auch Jugendämter unseren Kanal, um ihre Hilfsangebote zu erklären. Denn: Wir sagen nicht, dass das das Haus Nazareth ist – wir erklären einfach, wie Jugendhilfe funktioniert. Es gibt dort auch Interviews mit dem Fachdienst, mit der Krisenintervention und anderen Stellen. Mein Appell an Sie – bevor ich Ihnen, wenn Sie möchten, eine kurze Sequenz einspiele, damit Sie einen kleinen Einblick bekommen: Sie müssen sich nicht gleich anmelden. Aber natürlich können Sie uns auf TikTok folgen, wenn Sie das möchten. Es geht hier nicht um Follower. Es geht ausschließlich um die Kinder und Jugendlichen, die wir erreichen müssen. Und das meine ich wirklich genauso.

Blick auf eine Leinwand auf dem Podium

Ich bin auch der Meinung: Das ist eine Erscheinung auf Zeit. TikTok wird irgendwann verschwinden. Aber ich hoffe, dass es lange genug bleibt. Denn wir hinterlassen dort etwas Nachhaltiges: Erklärvideos darüber, was Jugendhilfe ist – von Kindern und Jugendlichen selbst.

Das Video stammt von unserem Influencer-Team und wurde irgendwie mit dem Handy aufgenommen – Ich habe es genauso übernommen, wie es bei mir abgegeben wurde – und möchte es Ihnen einfach kurz zeigen.
 

– Videosequenz –
 

So viel als kurzer Einblick – und vielleicht auch als Motivation: Wir müssen mutig sein. Wir müssen uns darüber im Klaren sein, dass unsere Kinder längst in dieser digitalen Welt unterwegs sind. Und sie sind der dort wirksamen KI, die an vielen Stellen nicht nur positiv ist, schutzlos ausgeliefert. Wir müssen Wege finden, sie im virtuellen Raum zu schützen. Zum Beispiel durch klare Regeln – und indem wir diesen Raum als Jugendkulturraum begreifen.

Vielen Dank!

KI in der Kinder- und Jugendhilfe von Prof. Dr. Christina Plafky – Vortrag Teil 3

Ich würde jetzt gerne noch einmal darauf zurückkommen, was das eigentlich alles für die Praxis bedeutet. Und vor allem darauf, wo hierbei die größten Herausforderungen und Risiken liegen. Einige Aspekte haben wir bereits diskutiert, aber es gibt sicher noch vieles mehr zu bedenken, denn wir stehen erst am Anfang dieser Entwicklung. Und ich bin mir sicher: Wenn wir in drei Jahren erneut darüber sprechen, werden wir eine ganze Reihe weiterer Herausforderungen, Risiken – aber vielleicht auch Chancen – entdeckt haben, die wir uns heute noch gar nicht vorstellen können. Einfach, weil wir bisher noch nicht so viel praktische Erfahrung mit diesen KIAnwendungen gesammelt haben. Was sich jetzt schon abzeichnet, ist, dass es zu einer Veränderung unserer Arbeitsprozesse kommen wird. Das betrifft zum einen die Dokumentation und den Verwaltungsaufwand, der sich verändern wird, aber es betrifft sicherlich auch unsere direkte Arbeit mit den Klientinnen und Klienten. Unsere bisherigen Beispiele wie die Chatbots oder der Einsatz von KI in sozialen Medien wie TikTok zeigen bereits, dass hier eine Veränderung im Raum steht, die uns dazu herausfordert, neue Methoden zu entwickeln. Sowohl in der Fachlichkeit als auch in der Praxis der Sozialen Arbeit, insbesondere in der Beziehungsgestaltung.

Ich bin mir auch sicher, dass sich die Beziehungen an sich verändern werden, wenn immer mehr Chatbots „nebenbei“ genutzt werden. Wir merken das jetzt schon: Die Erwartungshaltung an Verfügbarkeit hat sich verändert und dieser Prozess wird sich wahrscheinlich noch weiter verstärken. Da ich genau zwischen den Generationen stehe, sehe ich das selbst sehr deutlich. Ich bin noch ohne Handy aufgewachsen, habe das Ganze aber früh genug miterlebt, um mich heute einigermaßen gut damit zurechtzufinden. Deshalb glaube ich, dass es auch innerhalb der Einrichtungen und Teams zu Generationskonflikten kommen wird. Wenn ich mir meine jungen Studierenden anschaue, sehe ich, dass sie einen ganz anderen Umgang mit diesen Technologien haben. Sie haben andere Erwartungen, sie wählen andere Kommunikationsformen und das wird auch von uns eine andere Form der Kommunikation erfordern. Das wird bei den Adressatinnen und Adressaten der Sozialen Arbeit und der Kinder- und Jugendhilfe nicht anders sein. Das heißt, wir brauchen nicht nur neue oder veränderte Methoden, sondern für die Praxis auch deutlich mehr Handlungsleitlinien und klare Richtlinien: Wie gehen wir mit solchen Technologien um? Wo sind die Grenzen? Was wollen oder können wir nicht machen – oder dürfen wir vielleicht sogar nicht tun?

Eigentlich hatten wir noch geplant, einen kurzen Input zum Thema EU-KIVerordnung zu geben. Aus Zeitgründen sparen wir uns das jetzt, aber dennoch kurz dazu: Einiges ist bereits durch die Verordnung geregelt, aber bei weitem nicht alles. Vor allem die fachliche Regulierung und der konkrete Umgang mit KI können und müssen die Einrichtungen selbst entwickeln. Damit verbunden stellt sich auch die Frage, wo unsere Verantwortung beginnt und wo sie aufhört. Ein Beispiel ist der Umgang mit Chatbots und die Frage, wer eigentlich dafür zuständig ist, Kinder und Jugendliche darüber aufzuklären. Ist das die Aufgabe der Sozialen Arbeit? Soll das die Schule übernehmen? Oder sind die Eltern gefragt? Das sind neue Fragen, die sich im Kontext von KI noch einmal ganz anders stellen als wir das bisher aus den Diskussionen rund um Social Media kennen. Zum Thema Datenschutz habe ich bereits etwas gesagt. Ich denke mittlerweile ist allgemein bekannt, dass wir gerade bei KI hier besonders sorgfältig sein müssen. Und dann stellt sich natürlich auch die Frage, wie wir mit Qualitätsstandards umgehen, wenn wir KITools in unsere Arbeit integrieren. Wie stellen wir sicher, dass wir unsere Fachlichkeit nicht verlieren? Und vor allem: Wie vermeiden wir, dass das Menschliche an der Sozialen Arbeit auf der Strecke bleibt? Gleichzeitig ist aber klar, dass KI mit Sicherheit zu einer Effizienzsteigerung führen wird. Vielleicht nicht in dem Ausmaß, wie es sich manche vorstellen, aber es wird Veränderungen geben. Besonders im Bereich Verwaltung werden sich die Qualitätsstandards wahrscheinlich verschieben. Außerdem wird KI dazu führen, dass wir personalisiertere Unterstützungsangebote für individuelle Klientinnen und Klienten schaffen können. Das wird uns in der Fachlichkeit aber auch noch einmal deutlich stärker fordern, als wir es bisher gewohnt sind. Denn der Einsatz von KI erfordert häufig ein strukturiertes Vorgehen, möglicherweise sogar strukturierter, als es in der Sozialen Arbeit bislang üblich ist.

Und dann zum Thema Entscheidungsfindung. Vorhin habe ich es bereits ausführlich gesagt, dass KI uns sicher dabei unterstützen kann, Entscheidungen zu treffen, aber sie kann diese Entscheidungen nicht übernehmen. Deshalb brauchen wir mehr Wissen, mehr Sicherheit im Umgang mit diesen Systemen und eine intensivere Auseinandersetzung mit den verschiedenen Perspektiven. Vor allem aber müssen wir uns auch mit den ethischen Komponenten beschäftigen, die wir heute nur am Rande angesprochen haben – die für mich aber zentral sind, wenn wir die Soziale Arbeit weiter gestalten wollen. Denn es geht hier um grundlegende Fragen: Was bedeutet der Einsatz von KI in unserer Arbeit wirklich? Und was sind die ethischen Konsequenzen? Wenn wir in diesem Zusammenhang von Ethik sprechen, meinen wir zum Beispiel Themen wie Vertraulichkeit oder Transparenz. Ich habe das in der Pause auch schon kurz diskutiert: Was machen wir denn, wenn wir zukünftig das Einverständnis der Klientinnen und Klienten brauchen, damit wir ihre Daten mit KI-Tools verarbeiten dürfen? Was passiert, wenn ein Klient das ablehnt? Bedeutet das dann, dass wir diese Person nicht mehr aufnehmen können? Denn wir können ja nicht einfach zwei parallele Verwaltungssysteme führen – eines mit KI, eines ohne. Wir sehen an der digitalen Fallakte bereits heute, dass solche Parallelstrukturen in der Praxis nicht funktionieren. Wenn wir uns also einmal für einen bestimmten Weg entscheiden, hat das weitreichende Konsequenzen. Und genau diese Fragen müssen wir gut und gründlich durchdenken.

Abschließend noch einmal mein Lieblingsbeispiel, das bereits ein paar Jahre her ist und damals auch in der deutschen Presse war: Amazon hat irgendwann festgestellt, dass in ihrem Bewerbungsverfahren plötzlich keine Frauen mehr eingeladen wurden. Der Grund war, dass sie das komplette Recruiting auf KI umgestellt hatten. Diese KI war mit Daten von IT-Studenten trainiert worden und das sind zu über 90 Prozent Männer. Die KI hat also gelernt, alles, was mit „Frau“, „weiblich“ oder „Dame“ zu tun hat, auszusortieren. Die Folge war, dass Frauen schlicht nicht mehr zum Bewerbungsgespräch eingeladen wurden, was ein klassisches Beispiel für Bias im Kontext von KI ist. Das Problem dabei ist, dass man so etwas oft erst nach Monaten oder sogar erst nach Jahren merkt. Und manchmal bleibt es sogar ganz unentdeckt. Genau das sehe ich als große Herausforderung für die Soziale Arbeit – nicht nur aus ethischen, sondern auch aus fachlichen Gründen. Wie gehen wir mit so etwas um? Wie sorgsam können wir Bias überhaupt erkennen? Und was bedeutet das für unsere Klientinnen und Klienten? Dazu kommt noch die Frage der Abhängigkeit von KI. Wir kennen das alle schon von unseren Handys, wie stark wir uns daran gewöhnt haben, auch wenn wir das vielleicht nicht so gern zugeben. Die Befürchtung ist, dass es mit KI ähnlich laufen wird.

Mittlerweile gibt es psychologische Studien, die sich genau mit dieser Thematik befassen. Sie zeigen sehr klar, dass es unterschiedliche Umgangsweisen mit Technologie gibt (z.B. Zerilli, 2019). Die eine Variante ist der nachlässige Umgang, also die Haltung, dass die KI das eh besser kann als ich, und ich gar nichts mehr kontrollieren muss, da das schon passen wird. Die zweite Variante ist eine übermäßige Abhängigkeit, bei der man sich kaum noch traut, eine Entscheidung selbst zu treffen, ohne sich vorher von der KI eine Antwort oder Absicherung geholt zu haben. Und dann gibt es noch die dritte Variante der Ablehnung und kompletten Zurückhaltung – nach dem Motto: „Damit will ich nichts zu tun haben, das betrifft mich nicht.“ Diese drei Typen des Umgangs mit KI beschreibt die psychologische Forschung. Als Fachkräfte müssen wir hier sehr genau hinschauen, wie wir selbst damit umgehen. Es braucht persönliche Reflexion – immer wieder. Nur so können wir verhindern, dass wir unsere Fachlichkeit nicht verlieren, wenn wir mit diesen neuen Technologien arbeiten. Wenn nicht nur unsere Klienten, sondern auch immer mehr Mitarbeitende KI nutzen und diese Technologien zunehmend in den Arbeitsalltag Einzug halten, wird das die Soziale Arbeit als Profession vermutlich ganz schön auf den Kopf stellen und langfristig verändern. Vielen Dank!

KI in der Kinder- und Jugendhilfe von Prof. Dr. Michael Macsenaere – Vortrag Teil 4

Von meiner Seite nun noch ein paar Sätze zum AI-Act der EU. Sie sollten zumindest gehört haben, dass die EU bisher einen risikobasierten Ansatz zur Regulierung von KI verfolgt. Anwendungen werden nach Risikostufen eingeteilt und entsprechend reguliert. Interessant ist, dass sich hier gerade etwas verändert: Angesichts geopolitischer Entwicklungen – Stichworte Trump, Musk und andere – beginnt die EU zunehmend nicht nur auf Risiken, sondern auch auf Chancen zu schauen. Ziel ist es, Europa als KI-Standort leistungsfähig zu halten und nicht völlig von US-amerikanischer oder chinesischer Technologie abhängig zu werden. In den bisherigen – eher bürokratisch gehaltenen Regelungen – ist allerdings noch nicht viel von dieser Neuausrichtung zu spüren.

So ist am 2. Februar 2025 im Rahmen des AI-Acts Artikel 4 in Kraft getreten. Darin steht tatsächlich, dass jede Mitarbeiter*in, die auch nur einmal eine KI nutzt – etwa ChatGPT –, über entsprechende Wissens- und Handlungskompetenzen verfügen muss. Das betrifft jede Institution in der EU, also auch jede Jugendhilfeeinrichtung. Diese Vorgabe gilt seit Februar und bedeutet: Viele bewegen sich rechtlich aktuell in einer Grauzone. Uns haben daraufhin mehrere Einrichtungen angesprochen und um einen schnellen Qualifizierungskurs gebeten. Wir haben darauf reagiert und einen zertifizierten Online-Kurs entwickelt, den man in einem halben Tag absolvieren kann – um die Rechtsunsicherheit zumindest zu reduzieren.

Nun noch ein kurzer Blick in die Zukunft – auf das laufende und die beiden kommenden Jahre.

Ich habe die zu erwartende KI-Entwicklung in Wellen strukturiert (siehe Grafik):

KI Wellen
  • Erste Welle: bereits (beginnende) Realität. KI-Anwendungen zur Dokumentation – Berichte, Formulare, Protokolle – sind da und funktionieren grundlegend. Sie sind aber noch nicht systematisch in den sozialen Organisationen implementiert.
  • Zweite Welle: gegen Ende dieses oder Anfang nächsten Jahres. Wissensmanagement. Externes und internes Wissen wird so verknüpft, dass es hochindividualisiert, auch von neuen Fachkräften, nutzbar wird. Meine Prognose: In gut einem Jahr wird das praxistauglich sein
  • Dritte Welle: ab 2026. Predictive Analytics – Hilfestellungen bei Diagnosen, Prognosen, Risikoeinschätzungen, Indikationen oder bei der Zuweisungsqualität. Der Clou hierbei: Es geht nicht mehr nur um Entlastung der Fachkräfte, sondern um echte Qualifizierung der Arbeitsprozesse.

Damit stehen wir vor einer Transformation, die nachhaltig Bestand haben wird. Technologien werden sich zunächst auf einfachem Niveau etablieren, dann Schritt für Schritt besser und leistungsfähiger werden – auch in Beratung und pädagogischen Aufgaben. Chatbots werden künftig selbstverständlich Teil der Kinder- und Jugendhilfe sein.

Ein besonders aktuelles Thema sind die KI-Agenten.

Anders als LLMs, die nur eine Antwort auf einen Prompt geben, lösen Agenten mit einem Prompt ganze Handlungsketten aus – vergleichbar mit einem Online-Urlaubsbuchungssystem, das nach Eingabe der Kreditkarte den gesamten Prozess automatisch abschließt.

Das ist hochkritisch, weil der Mensch bewusst aus der Handlungskette herausgenommen wird. Gleichzeitig liegt darin für Befürworter eine enorme Chance: ein Assistent, der eigenständig ganze Arbeitsschritte vollzieht. Ich persönlich sehe das eher als kritisch an. Denn wir geben Verantwortung ab, um effizienter zu wirken – mit durchaus möglichen negativen Folgen. Für die Jugendhilfe wird das große Auswirkungen haben. Ich glaube aber nicht, dass wir in den nächsten zwei Jahren wirklich praxistaugliche und qualifizierte Agenten in der Jugendhilfe haben werden.

Wenn wir auf die erste Welle zurückschauen: Viele Einrichtungen haben sich in den letzten Monaten bei uns im IKJ gemeldet. Sie nutzen ChatGPT, Perplexity oder auch NotebookLM für die Texterstellung. Das funktioniert, bringt aber Probleme mit sich. Vor allem drei Punkte wurden genannt:

1. Datenschutz – personenbezogene Daten dürfen nicht in Cloud-Systeme wie ChatGPT.

2. Rechtslage – die Nutzung entspricht häufi nicht den Vorgaben des AI-Acts.

3. Fachspezifik – jugendhilfespezifische Modelle fehlen bislang.

Dazu kommt: Einrichtungen nutzen meist mehrere Tools nebeneinander, die nicht integriert sind und nicht zu vorhandenen Softwarelösungen passen. Der Workflow leidet. Außerdem ist es fast unmöglich, mit der rasanten Entwicklung Schritt zu halten – Stichwort DeepSeek-Schock aus China Anfang des Jahres, der die KI-Szene aufgewirbelt hat. Entwicklungen laufen so schnell, dass Modelle binnen Monaten überholt sind. Für die Praxis heißt das: dauerndes Umsteigen, kaum Stabilität.

Vor diesem Hintergrund haben wir mit über 60 Einrichtungen und Jugendämtern ein gemeinsames Projekt gestartet. Ziel: die Probleme der ersten Welle systematisch anzugehen. Der Prozess ist partizipativ, praxisorientiert und startet mit einer umfassenden Bedarfserhebung in den nächsten drei Monaten. Erst danach entscheiden wir über die technische Basis. Ziel ist, bis Ende des Jahres einen Prototypen für den ersten Anwendungsbereich zu entwickeln und diesen bis März 2026 zu optimieren und für die Jugendhilfe insgesamt verfügbar zu haben.

Aber: Die eigentliche Herausforderung beginnt nicht mit der Technik, sondern mit der Implementierung. KIEinführung ist ein waschechter Change-Management-Prozess.

Die entscheidenden Schritte:

1. Auswahl eines geeigneten Tools.

2. Klärung rechtlicher Rahmenbedingungen (Datenschutz, AI-Act).

3. Pilotprojekte im kleinen Maßstab, statt sofortiger Rollout.

4. Integration in bestehende Arbeitsprozesse – keine Add-ons, die mehr Arbeit verursachen.

5. Change-Management: alle Mitarbeitenden mitnehmen, Widerstände ernst nehmen, Kompetenzen aufbauen.

Und das alles schrittweise, nicht im Schnellverfahren. Bedarfsanalyse, kleine Pilotprojekte, erst dann breiter Rollout. Wichtig ist: Technik, Prozesse, Organisation und Menschen von Anfang an zusammenzudenken.

Damit möchte ich Sie nicht abschrecken. Aber ein „Ach, das läuft schon, es ist ja KI“ wäre schlicht blauäugig. Die Komplexität und Risiken sind ausgeprägt, aber die Chancen sind es auch. Deshalb begleiten wir das Projekt wissenschaftlich, mit Expertisen aus verschiedenen Disziplinen.

Bis Mitte Mai – zum Deutschen Jugendhilfetag – bleibt die Beteiligung an dem Projekt offen. Schon jetzt ist das Interesse daran immens.

Daniel Hahn und Prof. Dr. Michael Macsenaere

Mein abschließender Gedanke: Wir haben (noch) die Chance, aus der Kinder- und Jugendhilfe heraus selbst Lösungen zu gestalten. Es geht dabei nicht um ein Rennen gegen China oder die USA, sondern darum, eigene Best-Practice-Modelle zu entwickeln, zu erproben und damit die Kinderund Jugendhilfe zu stärken. Und vor allem: die Einrichtungen bei Einführung, Implementierung und langfristiger Nutzung mitzunehmen.

Meine Überzeugung: In diesem Sinne lohnt es sich für uns zu agieren, statt nur zu reagieren!

Vielen Dank für Ihre Aufmerksamkeit.

Schlussworte von Prof. Dr. Christina Plafky und Daniel Hahn

Schlusswort von Prof. Dr. Christina Plafky

Abschließend komme ich nochmal auf das zurück, was ich vorhin bereits gesagt habe. Der bisherige Prozess und wie dieser sich weiterentwickelt, welche Chancen und Risiken wir tatsächlich sehen werden, liegt zum großen Teil wirklich an uns und daran, wie wir das Ganze mitgestalten. Von daher hoffe ich, dass Sie einiges an Inspirationen mitnehmen konnten, aber vielleicht auch an Informationen darüber, worauf Sie achten sollten, wenn Sie sich dem Thema KI, egal in welcher Art und Weise, widmen.

Falls Sie weitere Informationen wünschen und sich vertieft einlesen wollen: Ich befinde mich gerade in der Fertigstellung eines Buchs zum Thema. Zusammen mit einem KI-Kollegen habe ich über 400 Seiten zum Thema KI und Soziale Arbeit geschrieben. Das Buch geht auf viele Studien aus internationalen Kontexten ein, gerade auch zum Thema Beziehungsgestaltung, zum Thema Chatbots, aber auch zur prädiktiven Analytik und zur administrativen Unterstützung. Es wird also ein breites Spektrum an Technologien abgedeckt – ergänzt durch eine sozialwissenschaftliche Auseinandersetzung mit den jeweiligen Themen. Ein eigenes Kapitel widmet sich zudem ausdrücklich der Frage der Ethik. Ich bin überzeugt: Da ist für jede und jeden etwas dabei. Wir freuen uns in jedem Fall, wenn Sie auch im Nachgang noch mit uns in Kontakt treten. Das gilt für uns alle drei – und wenn Sie Fragen haben, schreiben Sie mir gerne direkt. Vielen Dank!

Schlusswort von Daniel Hahn

Ich möchte uns allen zunächst herzlich danken – fürs Durchhalten, für Ihre Aufmerksamkeit und für Ihren Mut. Vielen Dank dafür, dass Sie tagtäglich Jugendhilfe gestalten und jenen eine Stimme geben, die oft keine haben. Lassen Sie uns diesen Weg gemeinsam weitergehen. Bleiben Sie kritisch, gerne auch überkritisch – aber immer konstruktiv. Dann werden wir auch das Thema KI bewältigen – so wie viele andere Herausforderungen in der Jugendhilfe, die wir in den letzten 20 Jahren gemeinsam gemeistert haben.

Gehen Sie gestärkt aus dieser Veranstaltung – auch wenn es heute vielleicht eine kleine Informationsflut für Sie war – und kommen Sie gerne auf uns zu. Vielen herzlichen Dank!