Literatur [1] G. James, D. Witten, T. Hastie, and R. Tibshirani, An Introduction to Statistical Learning. Springer, 2021. [2] https://incidentdatabase.ai/ [3] B. Biggio, B. Nelson, and P. Laskov, „Poisoning Attacks against Support Vector Machines“, in International Conference on Machine Learning, ser. ICML ’12. Edinburgh, Scotland, GB: Omnipress, Jun. 2012, pp. 1807–1814. [4] T. Gebru, J. Morgenstern, B. Vecchione, J. W. Vaughan, H. Wallach, H. D. III, and K. Crawford, „Datasheets for Datasets“, Communications of the ACM, vol. 64, no. 12, pp. 86–92, Nov. 2021. [5] C. Szegedy, W. Zaremba, I. Sutskever, J. Bruna, D. Erhan, I. Goodfellow, and R. Fergus, „Intriguing Properties of Neural Networks“, in International Conference on Learning Representations, ser. ICLR ’14. Banff, Alberta, Canada: IEEE, Apr. 2014, pp. 372–387. [6] M. Sharif, S. Bhagavatula, L. Bauer, and M. K. Reiter, „Accessorize to a Crime: Real and Stealthy Attacks on State-of-the-Art Face Recognition“, in ACM Conference on Computer and Communications Security, ser. CCS ’16. Vienna, Austria: ACM, Oct. 2016, pp. 1528–1540. [7] B. Biggio and F. Roli, „Wild Patterns: Ten Years After the Rise of Adversarial Machine Learning“, Pattern Recognition, vol. 84, pp. 317–331, Dec. 2018. [8] N. Papernot, P. McDaniel, and I. Goodfellow, „Transferability in Machine Learning: from Phenomena to Black-Box Attacks using Adversarial Samples“, arXiv, vol. abs/1605.07277, pp. 1–13, May 2016. [9] M. T. Ribeiro, S. Singh, and C. Guestrin, „“Why Should I Trust You?”: Explaining the Predictions of Any Classifier“, in ACM International Conference on Knowledge Discovery in Data Mining, ser. KDD ’16. San Francisco, California, USA: ACM, Aug. 2016, pp. 1135–1144. [10] M. Barreno, B. Nelson, A. D. Joseph, and J. D. Tygar, „The Security of Machine Learning“, Machine Learning, vol. 81, no. 2, pp. 121–148, Nov. 2010. [11] T. Gu, B. Dolan-Gavitt, and S. Garg, „BadNets: Identifying Vulnerabilities in the Machine Learning Model Supply Chain“, arXiv, vol. abs/1708.06733v2, pp. 1–13, Mar. 2019. [12] M. Mitchell, S. Wu, A. Zaldivar, P. Barnes, L. Vasserman, B. Hutchinson, E. Spitzer, I. D. Raji, and T. Gebru, „Model Cards for Model Reporting“, in Conference on Fairness, Accountability, and Transparency, ser. FAT* ’19. Atlanta, GA, USA: ACM, Jan. 2019, pp. 220–229. [13] F. Tramèr, F. Zhang, A. Juels, M. K. Reiter, and T. Ristenpart, „Stealing Machine Learning Models via Prediction APIs“, in USENIX Security Symposium, ser. SSYM ’16. Austin, Texas, USA: USENIX, Aug. 2016, pp. 601–618. [14] https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=COM%3A2018%3A237%3AFIN [15] https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai [16] https://digital-strategy.ec.europa.eu/en/library/assessment-list-trustworthy-artificial-intelligence-altai-self-assessment [17] https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=CELEX%3A52021PC0206 [18] https://ec.europa.eu/commission/presscorner/detail/de/ip_21_1682 [19] https://www.enisa.europa.eu/publications/securing-machine-learning-algorithms DOMINIK ADLER ist Wissenschaftlicher Mitarbeiter im Institut für Internet-Sicherheit – if(is) an der Westfälischen Hochschule in Gelsenkirchen und beschäftigt sich mit Angriffen auf künstliche Intelligenz. NURULLAH DEMIR ist Wissenschaftlicher Mitarbeiter im Institut für Internet-Sicherheit – if(is) an der Westfälischen Hochschule in Gelsenkirchen und beschäftigt sich mit Angriffen auf künstliche Intelligenz. NORBERT POHLMANN ist Professor für Cybersicherheit und Leiter des Instituts für Internet-Sicher- heit – if(is) an der Westfälischen Hoch schule in Gelsenkirchen sowie Vorstandsvorsitzender des Bundesver- bands IT-Sicherheit – TeleTrusT und im Vorstand des Internetverbandes – eco. IT-SICHERHEIT_1/2023 77 oder Inhalte erzeugen, besteht das Risiko, dass Menschen manipuliert werden könnten. Beispiele hierfür sind Chatbots, Emotionser-kennungssysteme oder die Darstellung von künstlich erzeugten Bild-, Ton- oder Videoin-halten, die authentisch wirken. In solchen Fällen soll den Nutzern klar kommuniziert werden, dass es sich um ein KI-System han-delt, unabhängig von der Risikostufe.Ein im Dezember 2021 veröffentlichter Bericht der EU-Cybersicherheitsagentur (ENISA) gibt ei-nen umfassenden Literaturüberblick über künst-liche Intelligenz [19]. Insbesondere werden in dem Bericht Bedrohungen für KI-Anwendungen und Schutzmaßnahmen aufgeführt.Zudem enthält die im Februar 2022 veröffent-lichte Richtlinie VDE SPEC 90012 V1.0 eine Liste von Fragen, mit denen KI-Anwendungen in den Bereichen Transparency, Accountability, Privacy, Fairness und Reliability bewertet und verglichen werden können. Zum Beispiel wird abgefragt, wie detailliert die Eigenschaften der Daten und KI-Modelle dokumentiert sind und welche Maß-nahmen eingerichtet sind, um die Integrität, Robustheit und Cybersicherheit des KI-Systems zu gewährleisten.FAZITDas Verhalten eines KI-Modells wird von den Daten bestimmt, mit denen es trainiert wurde. Wichtig für ein vertrauenswürdiges KI-Modell sind daher die Qualität der Trainingsdaten und eine Evaluation, ob die zugrunde liegenden Konzepte einer Domäne im gelernten Entschei-dungsprozess korrekt abgebildet werden. In der Regel sind KI-Modelle fehlerbehaftet, sodass immer die Möglichkeit von Fehlentscheidungen bei Grenzfällen besteht.Wenn ein KI-Modell eingesetzt wird, sind neue Angriffsvektoren zu berücksichtigen. So kann man zum Beispiel über eine Manipulation der Trainings- oder Eingabedaten die Entscheidun-gen eines KI-Modells beeinflussen und über eine Interaktion mit einem KI-Modell kann ein An-greifer auf die interne Funktionsweise schließen und sogar eine Kopie erstellen.Diese Bedrohungen sollten Entwickler schon beim Design eines KI-Modells berücksichtigen und potenzielle Risiken einschätzen. Die vorge-stellten Schutzmaßnahmen können dabei hel-fen, die Angriffsfläche und somit die Risiken zu minimieren. nAUS DER FORSCHUNG