Manipulation von Algorithmen: KI-Gefahren für Energieversorger

Bildquelle: AdobeStock_585287711

Die Ausgaben für generative KI werden laut Marktforschern des Technologieforschungs- und Beratungsunternehmens IDC in den nächsten vier Jahren dramatisch steigen – von derzeit 16 Mrd. Dollar auf voraussichtlich 143 Mrd. Dollar im Jahr 2027. Während Unternehmen derzeit noch in der Experimentierphase sind, wird gleichzeitig von ihnen erwartet, dass sie neue Geschäftsanwendungen auf KI-Basis entwickeln. Dazu wird es auch gehören, KI-Anwendungen auf Edge-Netzwerke auszuweiten.

Diese Entwicklung eröffnet Energieversorgern neue Dimensionen – so können sie zum Beispiel schneller auf Echtzeitdaten zugreifen, um präzisere Entscheidungen zu treffen. Dies birgt gleichzeitig jedoch ernsthafte Gefahren, gerade für die Sicherheit kritischer Infrastrukturen. Denn die generativen Modelle konfrontieren das IT-Sicherheitsmanagement mit Fragen, die bisher in Cybersecurity-Diskussionen noch kaum Beachtung fanden.

Zwischen Logik und Moral

Künstliche Intelligenz beeindruckt mit der Fähigkeit, Unmengen an Daten in Sekundenschnelle zu analysieren und komplexe Berechnungen durchzuführen. Sie agiert im Gegensatz zu menschlichen Entscheidungsträgern nicht nur rasch, sondern auch stets rational. Allerdings kann sie keine ethischen Entscheidungen fällen. Dieses Manko stürzt Entwickler in ein Dilemma, das sich so bisher noch nicht gestellt hat: Sie müssen mitentwickeln, wie das System in moralisch schwierigen Situationen reagieren soll.

Für welche Lösung soll es sich zum Beispiel im klassischen Zugdilemma entscheiden? Soll es die Weiche dorthin stellen, wo ein Mensch auf dem Gleis liegt, oder soll es den Zug weiterfahren und die fünf Personen überfahren lassen, die in einem Auto eingesperrt sind? Eine generative KI kann nicht zwischen moralisch „richtig“ und „falsch“ unterscheiden. Welche Entscheidungen sie tatsächlich trifft, hängt maßgeblich von den zum Training verwendeten Daten und den Merkmalen des Algorithmus ab – und damit ist sie eben auch offen für Manipulationen.

Algorithmus-Hacking

Wer einen Algorithmus einmal entschlüsselt hat, kann ihn auch zielgerichtet manipulieren. Dieses Konzept steckt zum Beispiel hinter der SEO-Optimierung: Ein ganzer Wirtschaftsbereich beschäftigt sich nur damit, den Algorithmus von Google zu überlisten. Ist diese Vorgehensweise hier noch vergleichsweise harmlos, können böswillige Hacker damit etwa im Autoverkehr Situationen mit fatalen Folgen provozieren. Ein Beispiel: Sobald die Sensoren eines autonomen Fahrzeugs eine rote Ampel erkennen, sollte das Auto in der Regel stoppen und die Fahrt erst bei Grün fortsetzen. Was aber ist, wenn etwaige Angreifer ein grünes Signal vortäuschen? Die KI beschleunigt ungeachtet der tatsächlichen Verkehrssituation.

In ähnlicher Weise könnten auch Energieversorger einem erhöhten Risiko durch Cyberkriminelle ausgesetzt sein. Was passiert etwa, wenn Hacker intelligenten Steuerungsmechanismen einen geringen Energiebedarf in den kommenden Stunden oder Tagen vortäuschen? Zudem besteht natürlich immer die Gefahr, dass sich ein Angreifer Zugang zum Unternehmensnetzwerk verschafft, dort auf das implementierte KI-System trifft und so Schwachstellen in der Künstlichen Intelligenz aufdecken kann (White-Box-Angriff).

Im Falle eines Black-Box-Angriffs wiederum, bei dem der Kriminelle keinen direkten Netzwerkzugriff hat, könnte er an einem vergleichbaren System im Energieversorgungsbereich Schwachstellen identifizieren und eine gezielte Angriffsstrategie entwickeln. Diese Taktik würde er dann auf das unbekannte System übertragen. In beiden Szenarien könnte der Angreifer zum Beispiel das hausinterne Erkennungssystem überlisten, sodass es eine unbefugte Person nicht identifiziert, die sich Zugang zu einem gesperrten Bereich verschafft.

 

 

 

1 / 2

Ähnliche Beiträge