Diskussionspapier „Zentrale Herausforderungen in der IT-Sicherheitsforschung“

Durch den rasanten Fortschritt bei der Entwicklung und Verbreitung von IT-Systemen entstehen vielfältige neue Sicherheitsprobleme. Um mit dieser Entwicklung Schritt zu halten, muss die IT-Sicherheit innovative Lösungskonzepte bereitstellen. Im Folgenden werden die acht wichtigsten Herausforderungen benannt und daraus konkreter Forschungsbedarf abgeleitet:

  1. Sicherheit bei autonomen Systemen
  2. Sicherheit trotz nicht vertrauenswürdiger Komponenten
  3. Risikoadäquate Sicherheit
  4. Privacy für Big Data
  5. Ökonomische Aspekte der IT-Sicherheit
  6. Verhaltensbasierte und menschliche Aspekte der IT-Sicherheit
  7. Sicherheit kryptographischer Systeme gegen mächtige Angreifer
  8. Detection and Reaction

Ihre Reihenfolge spiegelt keine Gewichtung wider. Wir weisen außerdem darauf hin, dass es zu jedem der Themen besonderen Ausbildungsbedarf auf der gesamten Breite (Universität, duale Ausbildungen, Fachhochschulen etc.) gibt. Es ist nicht Gegenstand diesen Papiers, wie die Ausbildung verbessert werden kann. Hier finden Sie auch unsere PDF-Version (Englisch) zum Herunterladen.

Dieses Diskussionspapier entstand aus dem intensiven Austausch zwischen den Autoren, Vertretern sowohl der Forschung als auch der Industrie, die somit eine breite Vielfalt der IT-Sicherheitsakteure repräsentieren. Darin zusammengefasst sind die Ergebnisse der Diskussionsrunden, an welchen die wissenschaflichen Projektleiter von secUnity teilgenommen haben.

Wir möchten Sie hiermit dazu ermuntern, an unserem Dialog teilzunehmen. Gerne können Sie Anmerkungen zu unserem Diskussionspapier an uns per Mail oder über das Diskussionsforum auf dieser Webseite senden. Falls Sie denken, dass das Diskussionspapier alle Themen umfasst, die die IT-Sicherheitsforschung in den kommenden Jahren beschäftigen werden, so freuen wir uns davon zu hören – genauso wie wir gerne Ihre konstruktive Kritik entgegennehmen.

1. Sicherheit bei autonomen Systemen

Selbstfahrende Autos, intelligente“ Häuser und Service-Roboter sind Beispiele für neuartige, autonome Systeme. Sie sind lernfähig, entwickeln sich kontinuierlich weiter und treffen sogar in unvorhergesehen Situationen eigene Entscheidungen, die auch sicherheitskritisch sein können. Bei selbstlernenden Systemen ist während der Entwicklung das Verhalten im späteren Einsatz nicht vollständig bekannt. Zudem können sich die Sicherheits- und Safety-Anforderungen ändern. Da man z.B. bei Fahrerassistenzsystemen aber Garantien für das Verhalten des Systems fordert, ergibt sich ein Dilemma für sicherheitsrelevante selbstlernende Systeme. Dies wirft auch rechtliche Fragen in der IT-Sicherheit auf und bedarf eines „Ethik by design“-Konzeptes.

Die Entwicklung und der Einsatz autonomer Systeme bietet neue Herausforderungen im Bereich der IT-Sicherheit, die schnellstens angegangen werden müssen. Ein Angriffspotenzial liegt in den Mechanismen zur Wahrnehmung der Außenwelt, da das System über diese Art Input manipulierbar ist. Wie kann die Datenqualität durch das autonome System richtig beurteilt werden und wie kann verhindert werden, dass eine falsche Umgebung dem selbstlernenden System vorgetäuscht oder gelehrt wird? Ein für autonome Systeme notwendiges Framework muss daher auch IT-Sicherheit berücksichtigen. Weitere Angriffe werden durch externen Schnittstellen möglich, über die beispielsweise die Exekutive – durchaus erwünscht – ein selbstfahrendes Auto aus der Ferne stoppen kann. Insbesondere bei Service-Robotern und „intelligenten“ Häusern ist die Schaffung und Einigung auf eine Referenzarchitektur trotz verschiedener Hersteller ein erster Schritt, um ein verlässliches Modell für das Studium der Auswirkungen von autonomen System zu erhalten, welches die IT-Sicherheit berücksichtigt.

Ziel ist es, selbstlernende Systeme zu entwickeln, welche den sich verändernden Sicherheitsanforderungen der gesamten Einsatzzeit genügen – nicht nur denen der ersten Stunde. Hierfür ist Grundlagenforschung notwendig: Es müssen Sicherheitsniveaus bei sich modifizierenden Systemen z.B. nach risikobasierten oder wahrscheinlichkeitstheoretischen Gesichtspunkten identifiziert und definiert werden. Die Unterteilung eines Systems in mehrere von einander unabhängige autonome Systeme, die sich z.T. gegenseitig kontrollieren, ist eine mögliche Konsequenz, die dann das Festlegen von Hierarchien erfordert. Dafür sollten zunächst revisionsfähige Systeme und austauschbare Softwarekomponenten für autonome Systeme entwickelt werden.

2. Sicherheit trotz nicht vertrauenswürdiger Komponenten

Ob in Industrie 4.0, im Internet der Dinge oder in autonomen Fahrzeugen, eingebettete Systeme werden in Zukunft Information sammeln, verarbeiten und wichtige Steueraufgaben übernehmen, und dazu in hohem Maß vernetzt sein. Sie kommen vor allem im operativen Bereich vor und nicht im IT-Bereich, was praktisch andere Anforderungen an die Usability nach sich zieht. Eingebettete Systeme werden zunehmend durch die Integration von unabhängigen und für verschiedene Anwendungen entwickelten Systemkomponenten (wie Chips, Betriebssysteme, Software-Bibliotheken, Applikationen, aber auch Cloud-Diensten) aufgebaut.

Die hohe Dynamik durch z.B. Updates oder Upgrades während des laufenden Betriebs erhöht die Komplexität, da sich System- und damit auch die Sicherheitseigenschaften über die Zeit verändern können. Zusätzlich wird die Heterogenität der Systeme gesteigert durch eine große Anzahl verschiedener beteiligter Hersteller und durch die Nutzung mehrerer Generationen alter Komponenten, die z.T. vom Hersteller nicht mehr aktualisiert werden. Auch das stückweise z.T. unkontrollierte Verbessern einzelner Funktionen und Bestandteile birgt Gefahren; die Praxis, dem Betreiber zu untersagen Softwarebibliotheken zu aktualisieren, ist aber auch keine praktikable Lösung. Es müssen deshalb geeignete Methoden und Werkzeuge für das System-Engineering entwickelt werden. Diese sollten non-intrusive sein, ohne damit ein neues Angriffspotential zu bieten.

Die Herausforderung besteht darin, wichtige Komponenten so zu entwerfen, dass über die gesamte Lebenszeit des eingebetteten Systems dessen Sicherheitseigenschaften im Betrieb gewährleistet werden können. Durch neue System-Architekturen muss eine dynamische, sukzessive Anpassung der Sicherheitskonzepte und Kontrollen an geänderte Sicherheitsanforderungen ermöglicht werden. Außerdem müssen es die zu erforschenden Entwicklungsmethoden und System-Architekturen erlauben, System-Teile, die nicht vertrauenswürdig oder aber unveränderbar sind, sicher zu integrieren – auch wenn diese eventuell Schwachstellen beinhalten könnten. Dabei müssen die aktuellen Sicherheitsniveaus trotz dieser „dunklen Flecken“ im System evaluiert werden können. Das Finden einer geeigneten IT-Sicherheitsmetrik ist wichtig für die Beurteilung/Einstufung des Gesamtsystems und der Komponenten (siehe auch Thema 3).

3. Risikoadäquate Sicherheit

„Es gibt keinen hundertprozentigen Schutz.“ Diese Binsenweisheit trifft auch auf IT-Sicherheit und Datenschutz zu. In der Praxis fragt man deshalb nicht, ob ein System sicher ist, sondern wie sicher es ist – d.h. man möchte Sicherheit messen und bewerten. Man strebt ausreichende Sicherheit an, nicht Sicherheit per se. Diese Sichtweise prägt die Praxis des Sicherheits- und Datenschutzmanagements, das Risikomanagement und auch die Gesetzgebung. Mit der Datenschutzgrundverordnung wird ab 2018 ein risikobasierter Ansatz gewählt, der dem Recht beim Schutz u.a. der Menschenwürde bislang vollkommen fremd war. Daneben ist z.B. die 2016 verabschiedete NIS-Richtlinie der Europäischen Union, die u.a. angemessene Sicherheit für kritische Infrastrukturen fordert, Grundlage dafür, Sicherheit und Datenschutz zu marktrelevanten Eigenschaften von IT-Produkten und Diensten zu machen. Nur hierdurch können sich Investitionen eines Herstellers oder Betreibers in die Verbesserung von Sicherheit und Datenschutz als Vorteil gegenüber Konkurrenten auszahlen.

Gesucht sind wissenschaftlich fundierte Methoden, Sicherheit und Datenschutz realistischer Systeme qualitativ und quantitativ zu modellieren, zu messen und zu bewerten. Zu klären ist hier zuerst, welche Vorfälle empirisch erfasst werden sollen (z.B. Angriffe oder erfolgreiche Angriffe) und in welcher Metrik. Dies beinhaltet die Entwicklung von fundierten, dynamischen Modellen für Risiken. Die empirische Cybersicherheitsforschung muss angesichts der unüberschaubaren Komplexität realer Systeme erheblich gefördert werden, um ein besseres Verständnis von realen Bedrohungen zu erhalten. Dazu gehört auch die Entwicklung von Methoden, die beispielsweise vom Gesundheitswesen, von Banken oder von Versicherungen zur Verfügung gestellten Daten effektiv zu anonymisieren, damit diese risikolos geteilt werden können. Die Forschung zur risikoadäquaten Sicherheit muss interdisziplinär, d.h. auf Basis einer Zusammenarbeit zwischen Informatikern, Ökonomen und Juristen, gestaltet sein. Risiken ergeben sich erst im Kontext des sozio-technischen Systems. Sicherheit entsteht im Zusammenspiel zwischen Mensch und Wirtschaft, Technik und Recht. Wesentlich ist deshalb das informierte und eng abgestimmte Vorgehen zwischen Technik- und Rechtsgestaltung sowie der ökonomischen Bewertung. Können technische und rechtliche Maßnahmen sowie ökonomische Modelle entwickelt werden, die eine Beurteilung der Kette der Vertrauenswürdigkeit der Akteure und Komponenten eines Gesamtprodukts ermöglichen? (siehe auch Thema 5)

Ziel dieser Forschung sind IT-Systeme und Dienste mit messbarer und – dank Messbarkeit und Adaptierbarkeit – langfristig nachweislich ausreichender Sicherheit und Rechtskonformität. Ein möglicher Ansatz für eine Metrik könnte sich an der Quantifzierung/Einteilung in Klassen von Schäden und Schadenspotential orientieren. Aber auch gänzlich neue Ansätze müssen verfolgt werden, um eine allgemein akzeptierte IT-Sicherheitsmetrik zu finden und etablieren.

4. Privacy für Big Data

„Big Data Analytics“ stellt bislang effektive Techniken zum Schutz der Privatsphäre vor neue Herausforderungen. Aggregation, Segregation, Anonymisierung und Pseudonymisierung verlieren ihre Schutzwirkung, sobald Daten unterschiedlicher Quellen – für sich genommen nicht einzelnen Personen zuordenbar – dynamisch miteinander kombiniert werden. Ein ähnliches Problem stellt sich bei gestreamten Daten, zum Beispiel von Sensoren. Die Gefahr einer mit Ortsdaten untermauerten Profilerstellung und der damit einhergehenden Verletzung der Privatsphäre wird zunehmend kritischer. Insbesondere Anonymisierungskonzepte müssen im Hinblick auf diese neuen Herausforderungen wissenschaftlich überprüft und weiter entwickelt werden. Im Kontext realer Systeme gilt es, Nutzbarkeit und Re-Identifizierungsrisiken in ein akzeptables Verhältnis zu bringen.

Die zukünftige Forschung auf dem Gebiet des Privacy-Preserving Data Processing ist eine der bedeutendsten Wegbereiter für den Einsatz von Big Data Analytics zum gesamtgesellschaftlichen Nutzen wie zum Beispiel in der medizinischen Forschung. Nur wenn es gelingt Konzepte zu entwickeln, die sowohl Nutzbarkeit als auch verlässliche Datenschutzgarantien bieten, werden Bürger bereit sein, in die Verarbeitung ihrer Daten für Analysezwecke einzuwilligen. Deshalb werden Modelle gesucht, die Kommunikationsstrukturen und Weiterverwertungsautomatismen und Ergebnisse hinter aufgenommenen Daten transparent und verständlich machen. Dies könnte auch medienwirksam anhand von Beispieluntersuchungen (z.B. Carsharing) veranschaulicht werden.

Die Rechtswissenschaften müssen eine Grundlage für einen neuen Datenschutz schaffen, dazu in interdisziplinären Kooperationen zunächst ein Framework für Bedrohungsanalysen entwickeln, das auch Modelle für die Folgen einer Datenoffenlegung einschließt. Es bleibt rechtlich neu zu beantworten und dann technisch umzusetzen: Was soll wer über wen wann wissen können? Im europäischen Rahmen sind unterschiedliche Eigentumsrechte an Daten wie beispielsweise Gesundheitsdaten zu berücksichtigen.

Die Forschung muss in den kommenden Jahren eine übergreifende wissenschaftliche Grundlage für den Schutz der Privatsphäre im Kontext der Digitalen Gesellschaft entwickeln. Mithilfe grundlegender Forschungsanstrengungen muss zunächst ein Verständnis für die Auswirkungen des Zusammenführens von Daten auf die Privatsphäre des Einzelnen erarbeitet werden, um dann in einem zweiten Schritt Technologien entwickeln zu können, die einen effizienten Schutz ermöglichen.

Diese Anstrengungen können nur interdisziplinärer Natur sein und müssen vor allem folgende Punkte aufgreifen: Techniken zur akkuraten Bemessung der Privatsphäre, Techniken zur besseren Durchsetzung des Datenschutzes und Methoden, um den Benutzern die Folgen ihrer Datenpreisgabe verständlich aufzuzeigen, sowie die Entwicklung von Privatsphäre-freundlichen Geschäftsmodellen, welche die Interessen von Nutzern und Anbietern besser als bisher zusammenbringen.

5. Ökonomische Aspekte der IT-Sicherheit

Neben der Weiterentwicklung bestehender und der Entwicklung neuer Sicherheitslösungen ist es von entscheidender Bedeutung, dass sowohl Menschen als auch Organisationen sich der Existenz bestehender Sicherheits- und Privatsphärenrisiken bewusst sind - und sich idealerweise auch souverän und sicher im Netz verhalten. Der letzte Zusatz ist wichtig, da sich viele Bürger gerade nach den Enthüllungen des ehemaligen Geheimdienstmitarbeiters Edward Snowden besorgt über die Verletzung ihrer Privatsphäre zeigten, sich aber dennoch nicht entsprechend verhalten. Dieser „Bias“ zwischen Wollen und Tun wird auch als Privacy-Paradoxon bezeichnet. Ein ähnliches Paradoxon lässt sich auch in vielen Unternehmen beobachten. Die Bemühungen zur Aufklärung und Schaffung von „Awareness“ gegen die digitale Sorglosigkeit müssen deshalb deutlich intensiviert werden. Dies gilt gerade auch für die Vermittlung von Wissen an junge Menschen, die insbesondere im Hinblick auf den Umgang mit ihren Daten häufig unbesorgt sind. Hier sind neue Konzepte, wie beispielsweise das einer „pro-aktiven/vorbeugenden Sicherheit“, gefragt.

In Organisationen sowie Unternehmen besteht eine wichtige Aufgabe darin, ein effizientes Risikomanagement aufzubauen. Dieses beinhaltet beispielsweise ökonomische Modelle, die die Entscheidung unterstützen, ob spezifische Investitionen in IT-Sicherheit getätigt werden sollten oder nicht. Hierfür müssen die kritischen Systemteile identifiziert und die Businessentscheidungsprozesse abgebildet werden, um daraus Priorisierungshilfen entwickeln zu können. Diese Modelle sollen auch je nach Kritikalität und Branchen spezifische Entscheidungshilfen anbieten. Dies ist etwa notwendig, wenn wir an kritische Infrastrukturen wie etwa im Energie- oder Kommunikationsbereich denken. Gute Modelle zur messbaren und quantifizierbaren IT-Sicherheit fehlen leider und sollten erforscht werden.

Neben der Schaffung von Awareness bei Menschen, Unternehmen und Organisationen können und sollten auch die IT-Sicherheitsanbieter zu mehr Sicherheit und Privatsphäre im Netz beitragen. Ein ganzheitliches Bewertungssystem für IT-Sicherheit wäre für unternehmensinterne Entscheidungsprozesse notwendig. Ziel ist die Entwicklung von innovativen und benutzerfreundlichen IT-Sicherheitslösungen, die auf den neuesten Erkenntnissen der Sicherheitsforschung aufbauen und den Anforderungen und Zahlungsbereitschaften der Anwender und Organisationen entsprechen. Aus gesamtwirtschaftlicher Sicht ist zu überlegen, ob und inwieweit Investitionsanreize und weitere Unterstützung bei der Entwicklung neuer Angebote für Anbieter, insbesondere für KMUs und Startups, in Deutschland und Europa sinnvoll sind. Hierzu gehört auch eine Förderung der Kooperation von Startups mit Hochschulen oder von Ausgründungen aus den IT-Sicherheits-Forschungsschwerpunkten von Hochschulen heraus.

Sicherheit könnte ein USP für Anbieter in Europa und Deutschland werden. Da die Themen Sicherheit und Privatsphäre zukünftig weiter an Bedeutung gewinnen werden, kann eine solche Stärkung der IT-Sicherheitswirtschaft einen Beitrag dazu leisten, die Wettbewerbsfähigkeit von Deutschland und Europa im weltweiten Wettbewerb um die Vorherrschaft in der digitalen Wirtschaft zu stärken.

6. Verhaltensbasierte und menschliche Aspekte der IT-Sicherheit

Sicherheitsmechanismen müssen auf allen Ebenen der Wertschöpfungskette so gestaltet werden, dass sie für die betreffenden Personenkreise auch effektiv anwendbar sind. Die Problematik ist drängend, denn während die IT-Sicherheitsforschung der letzten Jahre vor allem mit neuen technischen Lösungen aufgewartet hat, sind es letztendlich Menschen, die diese Lösungen einsetzen und anwenden. Wie sich jedoch zeigt, sind die Menschen heutzutage auf allen Ebenen der Wertschöpfungskette mit den ihnen anvertrauten Sicherheitsmechanismen von Grund auf überfordert. Zum Beispiel können Softwareentwickler keine wohlinformierten Sicherheitsaussagen über Komponenten Dritter treffen, darüber hinaus sind sie häufig bei der Verwendung wichtiger Sicherheitsschnittstellen (z.B. Krypto-Bibliotheken) überfordert und begehen Fehler. Ebenso sind sie aufgrund mangelnder modularer Sicherheitskonzepte nicht in der Lage, flächendeckend sichere Software zu erstellen. Systemadministratoren müssen Systeme sicher konfigurieren und zuverlässig Angriffe erkennen können, sowie diesen effektiv begegnen. Zumeist jedoch wissen sie bei weitem zu wenig über sowohl Angriffe als auch Verteidigungsstrategien. Dabei erweitert sich deren Aufgabengebiet vom klassischen IT-Betrieb hin zur Betreuung von komplexen IT-Systemen in Produktionsanlagen und Produkten. Im Resultat scheint es nicht verwunderlich, dass aufgrund der beispielhaft erläuterten Probleme der Faktor Mensch bei den allermeisten erfolgreichen Angriffen der letzten Jahre als schwächstes Glied in der Kette regelmäßig in irgendeiner Form maßgeblich am Entstehen der betreffenden Sicherheitslücke beteiligt war. Informationstechnologie wird von Menschen gestaltet und kann nur so sicher sein wie die Menschen, die sie gestalten, deren Sicherheitskonzepte auch verstehen.

Diesen Problemen kann nur dann effektiv begegnet werden, wenn die Benutzbarkeit auf allen Ebenen der IT-Sicherheit systematisch verbessert wird. Hierzu muss der Faktor Mensch in technischen Systemen besser verstanden und berücksichtigt werden, um die Resilienz der Systeme gegenüber Fehlbedienung zu erhöhen. Dabei ist die Rolle bzw. sind die Rechte der Person zu berücksichtigen. Ziel der Forschung muss daher sein, Sicherheitskonzepte, Methoden und Technologien zu entwickeln, die auf allen Ebenen der Wertschöpfungskette den beteiligten Menschen nur solche Entscheidungen abverlangen, die sie auch qualifiziert treffen können. Können technische und rechtliche Maßnahmen entwickelt werden, die eine markttaugliche Beurteilung und Zertifzierung der Kette der Vertrauenswürdigkeit der Akteure und Komponenten eines Gesamtprodukts gewährleisten? (siehe auch Thema 3)

7. Sicherheit kryptographischer Systeme gegen mächtige Angreifer

Kryptographische Verfahren, die aktuell als sicher angesehen werden, können durch neue Angriffstechniken und hohen Einsatz von Ressourcen gefährdet werden. Jetzt schon diskutierte Bedrohungen sind Quantencomputer und Seitenkanalangriffe. Die Erforschung von Quantencomputern wird weltweit und auch in der EU sehr stark gefördert. Bei einem möglichen Durchbruch sind die meisten eingesetzten Verschlüsselungs- und Signaturverfahren nicht mehr sicher. Die Erforschung und Entwicklung neuer kryptographischer Algorithmen, die durch Quantenrechner nicht gebrochen werden können, ist für eine zukünftige IT-Infrastruktur daher unumgänglich und muss weiter voran getrieben werden. Dazu sollten die ersten Realisierungen und Gegenmaßnahmen studiert und erweitert werden. Der Vertraulichkeitsschutz kann dabei auch durch die Quantentechnologie unterstützt werden. Verschiedene Standardisierungsgremien (z.B. NIST) haben die Problematik bereits erkannt und rufen dazu auf, neue effiziente Public-Key-Kryptographie zu entwickeln, die gegen Quantencomputer resistent ist. Dieses ist insbesondere im Hinblick auf einen rechtzeitigen Übergang wichtig. Der kryptographischen Sicherung von Archiven – egal ob langfristig oder kurzfristig – ist besonderes Augenmerk zu schenken. Davon unabhängig hat sich gezeigt, dass Kryptographie durch Seitenkanäle in Soft- und Hardware umgangen werden kann und deshalb entsprechend sicher entworfen werden muss. Zur Kryptoanalyse sind sowohl teure Lasertechnologien im Einsatz als auch einfache, leicht verfügbare Geräte beispielsweise zur Stromverbrauchsanalyse. Dabei ist man gegen die im Laufe der letzten 15 Jahre immer billiger gewordenen Angriffsmittel inzwischen recht gut geschützt. Angriffen mit neu entwickelter teurer Mess- und Lasertechnologie muss jedoch ständig neu begegnet werden.

Ziel dieser Forschung ist es, für eine langfristige Sicherheit jetzt Mechanismen (Algorithmen, Software und Hardware) zu entwickeln, die auch gegen zukünftige Angriffe (z.B. durch Quantencomputer oder Seitenkanäle) sicher sind. Für die Langzeittauglichkeit von implementierter Sicherheit sind die möglichen Fortschritte der nächsten Jahre jetzt schon zu berücksichtigen.

8. Detection and Reaction

Es gibt keine hundertprozentige Prävention. Daher sollten Netzwerke und IT-Systeme nicht ohne ausgeklügelte Mechanismen für „Detection“ und „Reaction“ sowie „Recovery“ betrieben werden. Zur Detektion werden Methoden aus dem Machine Learning erforscht und sind inzwischen ein vielversprechender Ansatz. Dies wurde im Jahr 2016 auch von der DARPA aufgegriffen: In ihrer „Cyber Grand Challenge“ ging es zum ersten Mal darum, Sicherheitslücken in Software automatisch zu finden und zu beheben („unmanned cyber reasoning systems“). Hier gab es einige erfolgreiche Teams mit innovativen Lösungen für dieses schwierige Problem. Dies stellt eine neue Qualität in der IT-Sicherheit dar, da man bisher ausschließlich „von Hand“ auf der Suche nach solchen Sicherheitslücken war. Diese Techniken ermöglichen auch eine schnellere Reaktion auf Angriffe. Durch automatisierte Angriffe entsteht eine kontinuierliche und neuartige Bedrohung gegen die herkömmliche Virenscanner wehrlos sind. Darüber hinaus sind auch manuelle Angriffe mittlerweile so häufig geworden, dass neue Lösungen und Gegenmaßnahmen dringend erforderlich sind. Deshalb sollte die Forschung sich nicht nur auf das Finden von Sicherheitslücken konzentrieren, sondern auch auf die Echtzeit-Erkennung bisher unbekannter Angriffe („intrusion detection“) und auf das Ergreifen wirksamer Gegenmaßnahmen.

Die vielversprechenden Fortschritte im Bereich Künstlicher Intelligenz und Machine Learning in jüngster Zeit („deep learning“) ermöglichen einen innovativen Forschungsansatz, um Sicherheitslücken und vielfältigen Angriffen automatisiert zu begegnen. Ein Zwischenschritt auf dem Weg zu vollautomatisierten Lösungen ist die Entwicklung von halbautomatisierten Alarmsystemen für Netzwerke. Hier kann Machine Learning durch die Bewertung der Angriffe Entscheidungen unterstützen und auch schon Reaktionsvorschläge liefern. Diese Möglichkeiten von Machine Learning-Systemen müssen noch weiter erforscht und ausgebaut werden, so dass Alarmsysteme in Zukunft automatisch und selbstständig reagieren.

Ziel ist es, automatische Verteidigungssysteme zu entwickeln, die schnell und zuverlässig Sicherheitslücken erkennen und beheben. Eine Herausforderung besteht darin, dem Machine Learning-System das Unterscheiden zwischen Angriff und normalen Betrieb für die gesamte Einsatzzeit verlässlich beizubringen. Insbesondere das Training von Machine Learning-Systemen durch Angreifer muss rechtzeitig identifiziert und entsprechend in neue Sicherheitsregeln umgesetzt werden. Da natürlich auch Angreifer selbstlernende Systeme gegen selbstlernende System/Klassifizierer verwenden können, müsste Machine Learning auch dagegen gewappnet werden.

Autoren

Dr. Jochen Dinger,

FIDUCIA & GAD IT AG, Leiter Sicherheitsmanagement – Bankwesen

Andreas Flach,

Avira GmbH, Executive Vice President – Products & Services

Dr. Magnus Harlander,

genua GmbH, geschäftsführender Gesellschafter

Dr. Detlef Houdeau,

Infineon AG, Senior Director Business Development

Volkmar Lotz,

SAP Research, France, Head of Product Security Research

Dr. Wolfgang Klasen,

Siemens AG, Head of Research Group Security for Embedded Systems

Axel Krein,

Airbus Group, Senior Vice President Research & Technology

Univ.-Prof. Dipl.-Ing. Dr. techn. Rainhard Posch,

TU Graz

Dr. Andreas Wespi,

IBM Research Zürich, Leiter IT-Security

Prof. Dr. Michael Backes,

Saarland University, MPI for Software Systems, Director CISPA, secUnity PI

Prof. Dr. Peter Buxmann,

TU Darmstadt, Lehrstuhl Wirtschaftsinformatik, secUnity PI

Prof. Dr. Claudia Eckert,

Fraunhofer AISEC, Institutsleitung AISEC, secUnity PI

Prof. Dr. Thorsten Holz,

RUB, Lehrstuhl Systemsicherheit, secUnity PI

Prof. Dr. Jörn Müller-Quade,

KIT, Lehrstuhl für IT-Sicherheit, Sprecher KASTEL, secUnity PI

PD Dr. jur. Oliver Raabe,

KIT – ZAR, Forschungsgruppenleiter, Direktor am FZI, secUnity PI

Prof. Dr. Michael Waidner,

Fraunhofer SIT, Institutsleitung SIT, Sprecher CRISP, secUnity PI