#30 Hat KI eine Meinung (und wenn ja, von wem)?
Shownotes
In dieser Episode von So geht sicher geht es um die Frage, ob künstliche Intelligenz eine Meinung hat und wenn ja, welche Faktoren diese beeinflussen. Ich erkläre, dass die Meinungen von KI-Systemen nicht menschlich sind, sondern von den Herstellern, dem Zweck der KI und den Trainingsdaten abhängen. Außerdem sprechen wir über die Halluzinationen von KI und geben konkrete Tipps, wie man die Meinung von KI erkennen und sich vor falschen Ergebnissen schützen kann.
In der Kürze liegt die Würze:
Wie Hersteller die KI beeinflussen
Der Einfluss des gedachten Einsatzzwecks auf Antworten
Trainingsdaten: die Basis für die Qualität der KI-Antworten.
Halluzinationen und falsche Antworten.
Mitarbeiterschulungen zum Know-How-Aufbau
Die Auswahl der richtigen KI-Tools
Zur Aktualität der Trainingsdaten
Ein klarer Plan für den KI-Einsatz in der Kanzlei ist notwendig.
Die Vermittlung von KI-Kompetenz ist ab dem 2. Februar Pflicht.
Mitarbeiter müssen erkennen können, wann sie mit KI arbeiten.
Hochrisiko-KIs sind stark reguliert und erfordern besondere Vorsicht.
Eine Schulung sollte immer kontextbezogen und praxisnah sein.
Chancen und Risiken des KI-Einsatzes müssen erläutert werden.
Learning on the Job fördert die KI-Kompetenz.
Datenschutz ist entscheidend bei der Nutzung von KI.
Sie haben Fragen oder Themenwünsche, Anregungen oder Kritik? Schreiben Sie uns eine E-Mail an digital@munker.info.
So geht sicher
Der Podcast für Datenschutz und IT-Sicherheit in der Steuerkanzlei
Mein Name ist Christine Munker, ich bin Datenschutzberaterin und leite gemeinsam mit meinem Mann seit 2013 unser Beratungsunternehmen für Datenschutz und IT-Sicherheit, die Munker Privacy Consulting GmbH.
In Gesprächen mit Steuerberatern über Datenschutz und IT-Sicherheit bekommen wir und unser Team immer wieder die gleichen Fragen gestellt: „Um was geht es denn dabei überhaupt? Welche Regelungen gelten für mich? Wie kann ich das in der Praxis sinnvoll umsetzen?“
Mein Team und ich beantworten diese Fragen im Podcast auf einfache und praxistaugliche Art und Weise. Und das ganz ohne Amtsdeutsch, Paragraphenpoesie und Tech-Talk, den niemand versteht.
Mehr Infos zu uns und unsere Beratungsangebote finden Sie auf der Homepage www.munker.info
Stay tuned! So bleiben Sie auf dem Laufenden. Zum Newsletter Zum Firmenprofil auf LinkedIn
Transkript anzeigen
Christine Munker: und herzlich willkommen zu einer neuen Folge von So geht's sicher, dem Podcast rund digitale Sicherheit und moderne Technologien für Steuerberaterinnen und Steuerberater. Ich bin Christine Munker und heute geht es ein Thema, das auf den ersten Blick ein bisschen philosophisch klingt, aber ganz praktisch Auswirkungen auf ihren Kanzleialltag hat. Hat künstliche Intelligenz eigentlich eine Meinung? Und wenn ja, woher kommt diese Meinung? Schauen wir uns das Ganze mal an. Warum ist diese Frage überhaupt wichtig? Vielleicht haben Sie schon mit JetGPT oder anderen KI-Tools in der Kanzlei gearbeitet. Und vielleicht ist Ihnen dabei aufgefallen, diese Systeme geben nicht nur Fakten wider. Sie treffen auch scheinbar ganz eigene, persönliche, in Anführungszeichen, Einschätzungen. Manchmal wirken sie fast ein bisschen meinungsstark. Aber wie kommt das? Hat KI wirklich eine eigene Meinung? Natürlich nicht im menschlichen Sinne, aber die Art und Weise, wie eine KI antwortet, wirkt oft tatsächlich ein bisschen wie eine Haltung und zwar ganz besonders bei generativer KI, also bei großen Sprachmodellen wie Chatchipiti, Nistral, DeepSeek und so weiter. Genau das ist wirklich wichtig zu verstehen, besonders dann, wenn Sie KI in der Kanzlei verstärkt einsetzen wollen. Denn diese scheinbare Meinung kann Ergebnisse ganz deutlich beeinflussen und im schlimmsten Fall sogar Entscheidungen verzerren, wenn diese auf den Ergebnissen der KI beruhen. Also wir sprechen heute natürlich über dieses Thema, weil KI eben durchaus eine Meinung hat und diese ist abhängig von drei Fakten. die wir uns jetzt mal näher ansehen wollen. Faktor eins der Hersteller. Der erste Einflussfaktor ist eben der Hersteller des KI-Systems, die Frage wer die KI eigentlich gebaut oder entwickelt hat. Denn jede KI wird von einem Unternehmen oder von Köpfen entwickelt. sind Menschen dahinter mit eigenen Zielen, mit eigenen Werten und eigenen Standards. Ein Beispiel, wenn sie JGPT nutzen, dann nutzen Sie eben ein System entwickelt von OpenAI, einem amerikanischen Unternehmen, mit einer bestimmten Philosophie, Trainingsmethodik und einer bestimmten Zielgruppe. Das ist nicht wertend gemeint, aber das ist so. Dieses Unternehmen repräsentiert bestimmte Ziele, bestimmte Einstellungen, die Menschen dahinter haben Meinungen. Andere Systeme, zum Beispiel von Google, Meta oder Tools aus dem asiatischen Raum, können... bei den gleichen Fragen, die sie diesen Tools stellen, ganz anders antworten als zum Beispiel JCPT, weil sie eben anders eingestellt sind. Diese Grundeinstellungen oder diese Basis, die in der Entwicklung mit einfließt in Ergebnisse oder in die Arbeitsweise dieser Tools, können verschiedene Dinge beeinflussen. Die können zum Beispiel bestimmen, welche Themen bevorzugt behandelt werden. Oder... ganz praktisches, aktuelles Ereignis. Die können bestimmen, welche Themen überhaupt nicht behandelt werden. Fragen Sie zum Beispiel mal die KI DeepSeek zu einem systemkritischen, politischen Thema aus dem chinesischen Umfeld. Sie werden keine Antwort darauf bekommen. Das ist ganz klar eine Meinung, die der Hersteller in diese KI mit hineingebracht hat. Politische Überzeugungen und so weiter. Diese Grundeinstellungen entscheiden aber auch darüber, Begriffe, welche Sprache, welche Klangfarbe die KI eher nutzt. Also wie sie formuliert, wie sie sich äußert. Und die entscheiden auch darüber, welche Weltanschauungen, politische Meinungen oder gesellschaftliche Meinungen eben favorisiert werden. Das alleine zeigt natürlich schon ganz deutlich, dass KI und ihre Ergebnisse, ihre Antworten eben immer geprägt sind von dem Umfeld, dem ein Tool stammt. KI ist aber auch geprägt von dem Zweck, für den sie eigentlich mal entwickelt wurde. Das ist der zweite Faktor, über den wir reden müssen. Wofür wurde die KI eigentlich gebaut? Denn nicht jede KI ist natürlich für den gleichen Zweck gemacht worden. Manche sollen eher unterhalten, manche sollen informieren, wieder andere haben eher strukturelle Talente, besser für Zusammenfassungen geeignet. Und dann gibt es die, die Bilder generieren können, Avatare machen, unsere Stimme nachahmen und so weiter. Jetzt nehmen wir mal ganz einfach an, Sie möchten eine Einladung für die Kanzlei- Jubiläumsfeier im August mit KI erstellen lassen und dazu auch entsprechende Grafiken mit der KI gestalten. Eine KI, ein Tool, das zum Beispiel für die Erstellung kreativer Texte optimiert wurde, wird zu sehr blumigen Formulierungen neigen, und die sind in dem Fall ja vielleicht sogar ganz angebracht. Ist eine KI aber auf das Lösen von komplexen mathematischen Problemen trainiert worden, dann wird der Text wahrscheinlich nicht ganz so einladend klingen wie gewünscht. Das ist einfach nicht die Stärke dieses Tools. Und schöne Grafiken für die Einladungskarte können vermutlich alle beide nicht so recht erstellen. Dafür bräuchten sie wieder ein anderes Tool. Das Problem, man sieht den Sprachmodellen, die Sie da nutzen, aber nicht immer wirklich an, was Sie jetzt eigentlich am besten können und wofür Sie gemacht wurden. Alleine von OpenAI, also ChatGPT, gibt es aktuell fünf Modelle, wenn ich richtig informiert bin, die unterschiedliche Fähigkeiten haben. GPT 4.5 ist beispielsweise für die Gestaltung natürlicher Konversationen gemacht und ist auch mit dem Einsatz emotionaler Intelligenz trainiert. O3 dagegen... ist auf technische Aufgaben und komplexe Problemlösungen spezialisiert. Also für Mathe, Programmierung, wissenschaftliche Fragestellungen. Wenn Ihre Kanzlei jetzt also mit ChatGPT arbeitet, wie man immer so sagt, ja, wir nutzen ChatGPT, dann kann das je nach eingesetztem Modell ein ganz unterschiedliches Ergebnis auf einfachste Fragen bewirken. Der Faktor 3 hat auch was mit dem Zweck, für den eine KI gemacht wurde, zu tun. Nämlich die Trainingsdaten. Also wir müssen uns fragen, kurz zu rekapitulieren, wer hat das System eigentlich gemacht, wofür wurde es gemacht und jetzt eben auch noch danach, welche Daten liegen diesem System eigentlich zugrunde, welches Know-how hat die KI, die sie einsetzen. Das ist... Vielleicht sogar der wichtigste Faktor, die Trainingsdaten. Denn die künstliche Intelligenz lernt eben nur aus diesen Trainingsdaten erst einmal. Und zwar aus sehr, sehr vielen. Die Schlüsse, die sie zieht, das ist dann wieder reine Statistik. Das, was wir als Nachdenken empfinden. Aber die Basis dafür sind Trainingsdaten. Welche welche Webseiten, welche Artikel und Quellen dafür genutzt werden, das bestimmt ganz maßgeblich, was die KI eben weiß, welche Antworten sie gibt und wie sie argumentiert. Wenn jetzt eine KI hauptsächlich mit englischsprachigen US-amerikanischen Inhalten trainiert wurde, dann wird sie tendenziell wahrscheinlich bei Fragen zu steuerrechtlichen Themen eher amerikanisches Steuerrecht wiedergeben, wird Anglizismen verwenden. Man wird vielleicht auch allgemein kulturell anders auf Fragen reagieren, wie wir es in Deutschland gewohnt sind. Hier spielt eben auch der Faktor 2, der Zweck der KI, eine große Rolle. Das matte Modell, von dem wir umgesprochen haben, wird vermutlich wenig rechtliche Quellen in den Trainingsdaten haben. Gerade für Steuerberater ist das natürlich kritisch, denn hier geht es unter Umständen spezifisches Fachwissen, deutsches Steuerrecht, ⁓ Themen rund ⁓ Dativ oder Software-Einsatz, Fristen, Kommunikation mit dem Finanzamt, was auch immer. Aber nicht nur bei solchen Themen, auch bei nicht steuerspezifischen Fragestellungen können eben je nach Datenbasis die Antworten ganz schön schiefgehen. DeepSeek, das chinesische KI-Modell, war beispielsweise noch vor zwei Tagen, heute ist der 1.7.25, davon überzeugt, dass unser Bundeskanzler Olaf Scholz heißt. veraltete Trainingsdaten. Der Trainingsdatensatz von DeepSeek beinhaltet Informationen bis Juni 2024 und dann eben dazu das, was durch die Interaktion mit Nutzern eben mit in das System eingeflossen ist. Aber da ist eben wieder die Frage, wie richtig ist das, was in so System durch Informationen, die wir dem System bereitstellen, einfließt und welche Rückschlüsse kann das System dann tatsächlich daraus ziehen? Wie ist die Logik, da dahinter steckt? In dem Fall hat es scheinbar kein Update bekommen und auch keine Informationen mit einbezogen. Das heißt, unser Bundeskanzler heißt Olaf Scholz. Was in einem Jahr, wenn die Trainingsdaten Stand Juni 24 sind, alles passieren kann, das muss ich Ihnen nicht erzählen. Und es ist nicht untypisch, dass Trainingsdaten in den generativen KI-Modellen so, in Anführungszeichen, so veraltet sind, denn das sind Unmengen an Daten, die da reingepackt werden müssen, dass diese KI-Tools so umfassende Antworten zu allen möglichen Themen geben können. Und das kostet wahnsinnig viel Zeit, das kostet wahnsinnig viel Geld und das macht man nicht Monat für Monat. Deswegen schauen sie sich das wirklich immer an, was da an Daten drinsteckt, welche Daten überhaupt ins System eingeflossen sind und wie aktuell die eben sind. Gerade im rechtlichen Bereich ist das natürlich ganz, ganz wichtig, was die Aktualität von Urteilen und Rechtsprechung und so weiter angeht. Zum Thema Trainingsdaten gibt es noch einen Punkt, den wir an der Stelle ganz kurz eingehen müssen. Findet eine KI gar keine wirkliche Antwort auf eine Frage in ihren Trainingsdaten, dann kann es nämlich schnell passieren, dass sie einfach eine erfindet. Man nennt das Halluzinieren. Das haben Sie bestimmt schon mal gehört. Das liegt an der Funktionsweise von KI, die im Grunde ganz ganz vereinfacht gesagt immer die Antwort gibt. statistisch am naheliegendsten ist. Probieren wir das mal ganz kurz aus, damit Sie verstehen, wie eine KI tatsächlich im Hintergrund funktioniert und zwar indem Sie bitte ganz kurz einen Satz, den ich gleich sage, im Kopf vervollständigen. von einem Leib Brot eine Scheibe abzuschneiden, benutze ich ein... Sie haben jetzt wahrscheinlich Messer gedacht. Ist die wahrscheinlichste Antwort für das Ganze. Ändere ich den Satz und nehme, von einem Leib Brot eine Scheibe abzuschneiden, benutze ich eine. Dann kommen Sie jetzt wahrscheinlich nicht auf Messer, ich nehme mich auch nicht, sondern auf Brotschneidemaschine. Wir müssten jetzt eine veritabile statistische Erhebung durchführen, aber ich vermute mal, dass ich zu 95 Prozent getroffen habe mit den Worten, die Ihnen jetzt auf der Zunge lagen. Sie sehen aber schon, dass ein einziger Buchstabe im Satz die wahrscheinlichste Antwort komplett verändert. Ein Messer, eine Brotschneidemaschine. Die KI, die denkt ja nun überhaupt nicht über den Inhalt des Satzes nach, das ist ihr eigentlich komplett egal, sondern immer nur über diese Wahrscheinlichkeit, welche Antwort aus denen, die sie zur Verfügung hat, vermutlich die beste ist nach statistischen Gesichtspunkten, also welche Antwort auf eine solche Frage am häufigsten. gegeben worden ist in der Trainingsdatenbank oder die eben den meisten Bezug zu diesem Thema hat. Frag ich Sie jetzt also, also die KI, womit ich am besten eine Scheibe Brot abschneide und die KI findet in ihren gesamten Trainingsdaten überhaupt gar keinen Hinweis auf die Existenz und den Einsatzzweck von Messern oder Brotschneidemaschinen, weil sie zum Beispiel mit speziellen Daten aus dem Handwerk gefüttert ist. Damit empfiehlt sie mir gegebenenfalls den Einsatz einer Motorsäge. In dem Fall erkennen wir natürlich sofort, dass dieses Ergebnis, naja, gut oder falsch, könnte auch zum Ziel führen, aber der richtige Weg ist es bestimmt nicht. Zumindest nicht der erfolgreichste. Aber in anderen Fällen, da ist es überhaupt nicht so leicht ersichtlich, dass die KI uns hier was vorgaukelt. Vor allem dann nicht, wenn wir nach Informationen zu Themen suchen, in denen wir selbst keine Spezialisten sind. Dann können wir auf dieses Halluzinieren auch ganz schnell mal reinfallen und deswegen... sollte man Ergebnisse aus der KI immer double checken. Und vor allem eben auch hier wieder ersichtlich prüfen, passen die Trainingsdaten und der Zweck der KI zu meinem Einsatzzweck für die KI. Denn dann kann ich davon ausgehen, dass da auch sinnvolle Antworten rauskommen und eben nicht halluciniert werden muss. Ein Fazit fassen wir also zusammen. KI hat eine Meinung. Zwar keine eigene, so wie wir Menschen das definieren würden. Aber die Ergebnisse sind durchaus und manchmal sogar deutlich von den Faktoren Hersteller, Zweck und vorhandene Trainingsdaten geprägt. Neutral sind die Ergebnisse großer Sprachmodelle tatsächlich fast nie. Wenn Sie KI-Tools in der Kanzlei einsetzen, etwa für Entwürfe, E-Mails, Infotexte, Zusammenfassungen, was auch immer Sie planen, dann achten Sie also immer darauf, woher das System kommt, wofür es gedacht ist und wie gut es ihre Fachwelt und den Kontext ihrer Fragestellungen abbildet. Schulen Sie Ihre Mitarbeiterinnen und Mitarbeiter genau zu diesen Themen, über die wir eben gesprochen haben. Ich weiß, Thema Schulung, das kommt in unserem Podcast wahnsinnig häufig vor, aber sowohl beim Datenschutz als auch bei der IT-Sicherheit, als auch beim Einsatz der KI. Ist es nun mal wichtig, dass die Menschen, die vor den Rechnern sitzen und die mit den Dingen arbeiten, über die wir sprechen, wissen, wie sie die Tools bedienen müssen, welches Know-how sie brauchen, ⁓ die Tools richtig einzusetzen und vor allem, die Ergebnisse bewerten zu können. Es ist essentiell wichtig zu verstehen, wie sehr oder wie wenig man sich auf die Antwort einer KI verlassen kann, dass Antworten immer überprüft werden sollten und dass der Nutzungszweck dieser Stelle über Sinn und Unsinn des Ergebnisses entscheiden kann. Nochmal zur Verinnerlichung. Es ist wirklich ganz ganz wichtig, dass sie diesen Punkt kriegen. Ein Tool, das nicht für den Zweck gemacht wurde, für den es bei ihnen zum Einsatz kommt, ist auch nicht mit guten Trainingsdaten für diesen Zweck bestückt und hat ganz andere Fähigkeiten als die, die von ihnen gerade gebraucht werden. Das kann nicht funktionieren und das gilt, wie vorher schon gesagt, sogar schon für die einzelnen Modelle CHAT GPT, die sich in ihrer Funktionsweise ganz deutlich unterscheiden. Überlegen Sie also immer zuerst, was Sie in Ihrer Kanzlei mit KI umsetzen wollen und suchen Sie sich dann die richtige KI dafür. Regeln Sie das für Ihre Teams, damit die wissen, welche Tools für welche Aufgaben geeignet sind und welche Aufgaben Sie überhaupt mit KI erledigt haben wollen. Vielleicht sind da ja auch Sachen dabei, wo Sie sagen, poch. der Geschichte traue ich noch nicht so ganz. Da lassen wir erstmal die Finger davon. Wir probieren das jetzt wirklich erstmal aus zum Thema Formulieren von bestimmten Geschäfts-E-Mails, die keinen steuerlichen Hintergrund haben, Einladungen, Marketing-Themen, Social Media, Posts beispielsweise. Das ist ein super Tool. Und so den wirklichen Workflow, den überlassen wir erstmal noch anderen oder holen uns dazu eine Beratung ins Haus, wie auch immer. Regeln Sie das für sich. Es kann sein, dass Sie schon mit drinstecken in der KI. und genau dieses Thema gar nie wirklich bedacht haben, dass sie noch nie wirklich darüber nachgedacht haben, was mache ich eigentlich mit welcher KI. Das geht ganz, schnell, denn man holt sich in Zugang zu JetGPT, es gibt jede Menge Berater, Consultants, die das gerade für Kanzlein im Moment propagieren, weil das auch wirklich unheimlich viele Vorteile hat. Und dann legt man mal los. Sie müssen das schulen und sie müssen sich vorher überlegen, was sie damit machen wollen. Es ist aber nicht zu spät, falls sie schon mit drinstecken. Das kann man alles noch umbiegen, denn dann haben sie einen Vorteil, tatsächlich sogar. Sie wissen schon, was sie wirklich mit der KI machen wollen, wo KI sie wirklich weiterbringt und können sich dann jetzt die Tools suchen, die dafür wirklich gut funktionieren. Also Zweck, Schulung, drauf achten, woher kommen die Tools und darauf achten, welche Daten stecken da drin. Schulen. Ich wiederhole mich an der Stelle so oft ich nur irgendwie kann, schulen sie ihre Teams. Das ist wirklich ganz wichtig, damit die Menschen vorm Bildschirm das Know-how haben, der KI richtig umzugehen und sie so zu nutzen, dass ihre Kanzlei eben auch wirklich einen Vorteil daraus hat. Diese KI-Schulungen sind übrigens nicht nur meiner Meinung nach wahnsinnig wichtig, sondern auch Pflicht nach der EU-KI-Verordnung. Und das tatsächlich aus gutem Grund, wie Sie ja jetzt schon mehrfach gehört haben. So können Sie insgesamt generative KI sicher und effizient nutzen. Klammer auf, das gilt nicht nur für die generativen Sprachmodelle, für die großen Sprachmodelle, sondern das gilt auch für KI-Tools aus der fachlichen Welt. Also Sie müssen natürlich auch, wenn Sie sagen, ich möchte Rechtsdatenbanken nutzen oder ich möchte mit Microsoft Co-Pilot die Datenbestände in meiner Kanzlei organisieren und so weiter. Da gibt es ja verschiedenste Tools, die Sie nutzen können, auch aus dem Data-Universum. Auch hier sollten Sie sich natürlich vorher überlegen, was will ich damit machen? Da kann man vielleicht den Herstellern doch ein bisschen mehr über den Weg trauen, dass da nicht so viele Meinungen mit reingebaut sind, wie das jetzt eben bei den großen externen Anbietern so der Fall ist. Aber auch da müssen Sie natürlich genau gucken, für was ist für Ihren Zweck das richtige Tool, was finde ich da alles? Und... ⁓ ihren Mitarbeitern das mitteilen, was ist für welchen Zweck geeignet, was sollen sie denn einsetzen und was steckt da überhaupt an Daten drin. Ist das ein umfassendes Tool, bezieht sich das nur auf bestimmte rechtsbereiche Bereiche, ist in diesen Bereichen aber unschlagbar gut. Das müssen sie einfach alles auch für solche Tools definieren. Dann haben sie nämlich einen Überblick und ihre Mitarbeiter wissen, wo sie hinschauen müssen und das spart wiederum Zeit und schafft Klarheit, wenn es etwas zu ändern, gibt es Ihrer KI-Strategie. Wenn Sie neue Tools wollen, wenn Sie Tools zusammenfassen wollen, wenn es neue Angebote gibt und so weiter, dann haben Sie das nämlich einfach mal alles schon schwarz auf weiß und geregelt und haben kein KI durcheinander, was sonst schnell passiert. KI ist ein unheimlich hilfreiches Werkzeug. Auch wir nutzen das wahnsinnig gerne in unserer Beratungspraxis. Aber KI ist eben kein Berater. Das reicht kein Entscheidungsträger. Den Job müssen immer noch sie selbst machen. Deswegen würde ich Ihnen empfehlen, einmal kurz zu überlegen, welche KI kommt eigentlich bei Ihnen schon zum Einsatz? Was machen wir genau damit? meine Mitarbeiter wirklich alle geschult? Und wenn nicht, wo kriege ich so eine Schulung her? Da können Sie sich natürlich gerne an uns wenden, denn zufälligerweise haben wir Das war es auch für heute bei So geht's sicher. Wenn Ihnen die Folge gefallen hat, dann lassen Sie gerne eine Bewertung da oder teilen Sie unseren Podcast mit Ihren Kolleginnen und Kollegen. Wenn Sie Fragen oder Themenwünsche haben, natürlich auch immer gerne rund KI und ohne das Wort Schulung, das ist jetzt hier natürlich wirklich sehr sehr sehr prominent gewesen das Thema, dann es hilft an der Stelle auch einfach richtig viel, dann schreiben Sie uns sehr gerne die Kontaktdaten finden Sie wie immer in den Show Notes zu unserer Podcast Folge oder Sie schreiben einfach per E-Mail an info.munker.info. Sie können uns auch gerne auf Social Media folgen. Mich persönlich finden Sie beispielsweise auf LinkedIn einfach nach Christine Munker suchen. Da finden Sie aber auch unsere Firma die Munker Privacy Consulting GmbH und Sie finden uns auch auf Instagram und Facebook. Folgen Sie uns gerne, verknüpfen Sie sich gerne. Auch dort gibt es immer wieder aktuelle News zu unseren Lieblingsthemen Datenschutz, IT-Sicherheit und KI-Compliance. Vielen Dank für Ihre Zeit und bis zum nächsten Mal.