Ethik und Datensicherheit im Umgang mit KI

Lesedauer 6 min.

Das Arbeiten mit KI wird auch im Bauwesen zunehmend den Alltag von Planern bestimmen. Allerdings bringt KI dabei Sicherheitsrisiken und ethische Probleme mit sich, die im Rahmen einer Datenstrategie im Planungsteams abgestimmt werden muss. ALLPLAN unterstützt dabei mit ethischen und sicheren Lösungen.

In aller Kürze:

> KI wird im Bauwesen zunehmend unverzichtbar, bringt aber auch erhebliche Risiken in Bezug auf Datensicherheit, Fehlentscheidungen und ethische Fragen mit sich.

> Der EU AI Act reguliert KI seit 2024 risikobasiert und verpflichtet Anbieter und Anwender:innen unter anderem zu Transparenz, Risikomanagement und KI-Kompetenz (AI Literacy).

> KI-Anwendungen werden laut EU AI Act in verschiedene Risikostufen eingeteilt, die jeweils bestimmten Pflichten oder Einschränkungen unterliegen.

> Bei ALLPLAN bleiben sämtliche Kundendaten in der EU, werden nicht für KI-Training genutzt und nicht an Dritte weitergegeben.

> Neben rechtlichen Vorgaben braucht es klare ethische Leitlinien im Planungsbüro, um KI verantwortungsvoll und professionell einzusetzen.

 

Große KI-Modelle wie Sprachmodelle oder Bildgeneratoren sind erst seit wenigen Jahren der breiten Masse zugänglich und doch in vielen Branchen nicht mehr wegzudenken. Auch im Bauwesen bedeutet ein Verzicht auf KI schon heute einen Wettbewerbsnachteil. Allerdings ist die Nutzung von KI-Tools häufig nicht unproblematisch. Wer Informationen mit KI-gestützten Diensten teilt, geht damit oft auch Risiken ein, weshalb User:innen sich stets gut darüber informieren sollten, wofür genau ihre Daten verwendet werden. Zugleich tun sich ethische Fragen auf – insbesondere da inzwischen durch das einfache Generieren von Bildern mit KI visuelle Wahrheit grundsätzlich in Frage gestellt wird, weil Bilder nicht mehr als objektive Dokumentation (zum Beispiel von Baumängeln) gelten können. Das EU-Recht schiebt Datenmissbrauch mittlerweile ein Stück weit einen Riegel vor. In rein ethischen Belangen sind hingegen die Software-Hersteller, aber auch die User:innen selbst gefragt.

Die Gefahren bei der Nutzung von KI sind vielschichtig. Fehlerhafte Datengrundlagen oder eine unkontrollierte Automatisierung können zu falschen Entscheidungen führen. Künstliche Intelligenz kann zudem für allerlei kriminelle Aktivitäten missbraucht werden – von CEO Fraud über Deepfakes bis zu IP Abuse. Je nach KI-Service besteht zudem die Möglichkeit, dass Geschäftsgeheimnisse ungewollt preisgegeben oder personenbezogene Daten weitergeben werden.

EU AI Act: KI-Risikostufen und ihre Anforderungen

Um das Gefahrenpotenzial von KI einzudämmen, ist in der Europäischen Union im August 2024 der EU AI Act (EU‑KI‑Gesetz) in Kraft getreten. Er gilt für alle Unternehmen, die KI‑Systeme oder KI‑Services in der EU bereitstellen – unabhängig davon, ob sie ihren Sitz innerhalb oder außerhalb der Union haben. Die Vorschriften werden stufenweise wirksam: Seit dem 2. Februar 2025 gelten unter anderem das Verbot bestimmter KI‑Praktiken mit unannehmbarem Risiko sowie die Pflicht zur „AI Literacy“ (KI‑Kompetenz). Das heißt, Anbieter und Anwender von KI‑Systemen müssen sicherstellen, dass Mitarbeitende und andere beteiligte Personen im sicheren Umgang mit diesen Systemen sowie in rechtlichen und ethischen Anforderungen ausreichend geschult sind.​
 

Im Kern verfolgt der EU AI Act einen risikobasierten Ansatz zur Regulierung von KI‑Systemen. Er unterscheidet vier Risikostufen:​

> Unannehmbares Risiko

> Hohes Risiko

> Begrenztes (eingeschränktes) Risiko

> Geringes (minimales oder kein) Risiko​
 

Zu Anwendungen, die ein unannehmbares Risiko darstellen, gehören etwa KI‑Systeme für Social Scoring durch Behörden, manipulative Systeme, bestimmte Formen der biometrischen Kategorisierung oder andere Anwendungen, die die Sicherheit, Lebensgrundlagen oder Grundrechte von Menschen erheblich gefährden können. Solche Systeme sind grundsätzlich verboten. Anwendungsfälle mit hohem Risiko betreffen im Bauwesen beispielsweise sicherheitsrelevante Komponenten und Systeme in kritischer Infrastruktur, etwa Aufzüge oder Seilbahnen, sowie Bereiche wie Bildung, Beschäftigung, Strafverfolgung, medizinische Geräte und Grenzkontrollen. Für hochriskante KI gelten strenge Anforderungen, darunter ein systematisches Risikomanagement, hohe Anforderungen an Datenqualität und Dokumentation, Transparenzpflichten und geeignete menschliche Aufsicht.​

KI‑Systeme mit begrenztem Risiko sind in der Regel für die Interaktion mit Menschen bestimmt, etwa Chatbots, Generatoren von Inhalten oder einfache Empfehlungssysteme. Zu dieser Risikokategorie können auch in Software integrierte Funktionen wie die in ALLPLAN eingesetzten KI‑Anwendungen (z. B. AI Visualizer und AI Assistant) zählen, sofern sie nicht in einen Hochrisikobereich fallen. Für diese Systeme gelten insbesondere Transparenzpflichten, etwa die klare Kennzeichnung, dass Nutzer mit einer KI interagieren oder dass Inhalte automatisiert erzeugt wurden; dazu gehört auch die künftige Kennzeichnung und ggf. Wasserzeichnung synthetischer Inhalte. Geringes Risiko besteht bei Diensten wie Spamfiltern, einfachen Schreibassistenten oder vergleichbaren Alltagsanwendungen; für sie sieht der EU AI Act keine zusätzlichen spezifischen Pflichten über allgemeine Grundsätze hinaus vor.

Datensicherheit bei ALLPLAN: Die Rechte an den Daten bleiben bei den Kund:innen

Beim Thema Datenschutz und Datensicherheit spielt der sogenannte Company Data Lake, also die gesammelten digitalen Daten eines Unternehmens, eine zentrale Rolle. Je umfangreicher dieser Datenschatz ist, desto mehr lässt sich mit KI-Assistenten dort an Mehrwerten herausholen. So kann etwa bei der Planung von Bauprojekten auf das vorhandene Wissen aus früheren Bauvorhaben zurückgegriffen und eine Menge redundanter Arbeit vermieden werden. Hierfür braucht die KI allerdings Zugriff auf dieses Firmenwissen, was die Frage nach sich zieht, was das KI-Tool eventuell darüber hinaus mit diesen Informationen macht. Manche KI-Lösungen nutzen letztere etwa zusätzlich zu Trainingszwecken, was bedeutet, dass sensible Unternehmensinterna nach außen gelangen können.

Bei ALLPLAN ist das nicht der Fall. ALLPLAN-Kund:innen müssen keine eigenen Daten zu Trainingszwecken bereitstellen. Stattdessen werden die integrierten KI-Werkzeuge mithilfe leistungsstarker Partnerunternehmen auf deren Daten trainiert. Zudem werden Kundendaten weder an Dritte weitergegeben noch verlassen sie jemals die EU mit ihren strengen Datenschutzbestimmungen. Ebenso werden keinerlei personenbezogenen Daten, die bei der Nutzung der KI-Systeme eventuell ungewollt preisgegeben werden von ALLPLAN gespeichert oder genutzt.

Ethisches Arbeiten mit KI in ALLPLAN

Das Arbeiten mit KI wirft jedoch nicht nur sicherheitsrelevante, sondern auch ethische Fragen auf. Ist es noch lautere Praxis, den Architekturstil von Mitbewerber:innen mithilfe Künstlicher Intelligenz zu imitieren? Zu den imitierten Architekturbüros zählen oft stilprägende Architekt:innen wie Zaha Hadid Architects. Interessanterweise vertreten diese den Standpunkt, dass eine KI, die in der Lage ist, ihren Architekturstil zu reproduzieren, niemandem mehr nütze als ihnen selbst.

Auch die im AI Visualizer verwendeten KI-Modelle können die Stile weltbekannter Architekt:innen und Künstler:innen imitieren, da diese Teil der öffentlich verfügbaren Trainingsdaten der Modelle sind. Ausgeschlossen ist jedoch, dass Kundendaten und damit eventuell verbundene Architekturstile- und Entwürfe für das Modelltraining genutzt werden. Während ALLPLAN so das geistige Eigentum seiner Kund:innen schützt, gibt die Software zudem einen gewissen ethischen Rahmen vor. So nutzt ALLPLAN etwa einen NSFW-Filter (not safe for work), der unter anderem Darstellungen von Nacktheit und Gewalt verhindert, um den sicheren Einsatz an Schulen zu ermöglichen. Letztendlich sollte jedoch jedes Planungsbüro für sich intern eigene ethische Richtlinien für das Arbeiten mit KI aktiv diskutieren und definieren.

KI verantwortungsbewusst und sicher nutzen mit ALLPLAN

ALLPLAN hat sich zum Ziel gesetzt, nicht nur die bestmöglichen KI-Werkzeuge für das Bauwesen zu entwickeln, sondern diese auch in einem Rahmen zur Verfügung zu stellen, der maximalen (Daten-) Schutz bietet und ethisch verantwortungsbewusstes, professionelles Arbeiten erleichtert. Der ALLPLAN-KI-Ansatz beruht dabei auf vollständiger Transparenz: Beim Umgang mit Kundendaten ebenso wie bei der Frage, welche KI-Modelle verwendet werden. Dadurch erhalten ALLPLAN-Kund:innen mit dem AI Visualizer und dem AI Assistant zwei ebenso leistungsstarke wie sichere Tools, die sich stetig weiterentwickeln und verbessern, ohne dass ihre User:innen ihre Daten oder Integrität dafür „opfern“ müssen.