Geschäft

Regelwerk für die künstliche Intelligenz

Szene aus "2001: Odyssee im Weltraum": Der Computer HAL 9000 mit dem Astronauten Bowman.

Im Streifen “2001: Odyssee im Weltraum” fiel jener Mensch einer übermächtigen künstlichen Intelligenz zum Todesopfer. Damit es nicht so weit kommt, hat die EU den AI Act hinauf den Weg gebracht. (picture alliance / United Archives / kpa Publicity)

Seitdem jener Veröffentlichung von ChatGPT ist die künstliche Intelligenz (KI) zum Dauerthema geworden. Welches KI kann – zum Denkweise selbständig Texte schreiben oder Bilder produzieren – wurde zu Gunsten von viele erstmals erfahrbar. Und jedermann weiß, dass wir uns erst am Zustandekommen einer Fortgang entscheiden, die tiefgreifende Nachsteigen zu Gunsten von die Menschheit nach sich ziehen wird.

Doch welche sind dasjenige? KI bietet jede Menge Entwicklungsmöglichkeiten – immerhin sie birgt wiewohl eine Vielzahl von Risiken. Wird sie die Menschen eines Tages reinlegen und können? Oder wird es gelingen, sie zu zähmen, einzuhegen, sie produktiv zu nutzen?

Dieser erste große Versuch, dasjenige zu tun, findet hinauf europäischer Fläche statt. Die Europäische Union will mit dem Gesetz über künstliche Intelligenz (AIA) die Zukunft dieser Technologie in sichere Bahnen lenken. Dies Richtlinie wurde jetzt vom Europaparlament verabschiedet.

Niemand weiß genau, wie gefährlich jener Kapitaleinsatz von KI potenziell ist. Doch sie wird – zumindest von den meisten Expertinnen und Experten – denn in der Regel sehr mächtig eingeschätzt. Positive wie wiewohl negative Auswirkungen könnten demnach immens sein. Finale Mai beschrieben führende Experten die Gefahr durch KI in nur einem Sprung: „Dies Risiko einer Vernichtung durch KI zu verringern sollte eine globale Priorität neben anderen Risiken gesellschaftlichen Ausmaßes sein, wie etwa Pandemien und Nuklearkrieg.“

Zu den Unterzeichnern jener kurzen Stellungnahme gehörte wiewohl OpenAI-Chef Sam Altman – jenes Unternehmens, dasjenige ChatGPT unwahr und damit den aktuellen KI-Hype maßgeblich ausgelöst hat. Die Stellungnahme wurde hinauf jener Webseite des in San Franzisko ansässigen Zentren für KI-Sicherheit (Zentrum zu Gunsten von KI-Sicherheit) publiziert. Die Non-Profit-Organisation nennt denn mögliche Gefahren von künstlicher Intelligenz ihren Kapitaleinsatz in jener Kriegsführung und warnt vor jener Verbreitung von Falschinformationen sowie vor einer Zukunft, in jener die Menschheit komplett von Maschinen hörig werden könnte.
Wenige Monate zuvor hatte es schon eine ähnliche Warnung gegeben: ein offener Zuschrift, in dem Tech-Milliardär Elon Musk und zahlreiche weitere Experten eine

Pause im Kontext jener Fortgang von gerade fortgeschrittener künstlicher Intelligenz gefordert
hatten.

Mit deutlichen Worten hat wiewohl jener Technologie-Konsulent des britischen Premierministers Rishi Sunak vor den Gefahren durch künstliche Intelligenz gewarnt: Matt Clifford sprach ganz konkret davon, dass viele Menschen durch den Kapitaleinsatz von KI getötet werden könnten. KI müsse so von jetzt an wie möglich in aller Welt reguliert werden, forderte Clifford in einem Interview. Doch derzeit sei noch nicht einmal lukulent, wie KI-Modelle schier kontrolliert werden könnten.

Terrorismus, Waffenproduktion, Operation von Wahlen: Die Ängste vor dem missbräuchlichen Kapitaleinsatz von KI sind weithin. Hinzu kommt die Sorge, die Prüfung extra sie zu verlieren. Dieser KI-Sachkundiger Daniel Privitera warnt vor immer besseren und stärkeren KI-Modellen, die schon teilweise uneingeschränkt strategisch handelten und Menschen täuschen könnten.

Zusammen seien ebendiese KI-Modelle „Blackboxes“: „Niemand versteht, welches gewissermaßen in denen vor sich geht. Zweitrangig OpenAI selbst versteht dasjenige nicht. Und wenn man so irgendetwas nicht versteht, dann kann man es natürlich wiewohl nicht verlässlich kontrollieren und steuern“, so Privitera.

“Selbst finde wiewohl die Idee verstörend, dass KI zum Denkweise unsrige Gedanken Vorlesung halten kann”, sagt

Alexandra Gänse
Digitalexpertin jener Grünen im Europaparlament. Es gebe schon Technologie, die extra Gehirnscans zeigen könne, “welches wir uns vorgestellt nach sich ziehen, welche Bilder wir gesehen nach sich ziehen”. Dies rühre “an unserem Grundkonzept jener freien Körperschaft”.

Ebenfalls sehr verstörend sei die potenzielle Ausgang jener Wirklichkeit, zum Denkweise durch Deepfakes. „Unsrige Stil und Weise zu prüfen, ob eine Information wahr oder nicht wahr ist, wird so kompliziert, dass sie gewissermaßen von normalen Menschen keiner mehr zu leisten ist”, sagt Geese. Ergebnis wäre eine Welt, in jener man zwischen Wahrheit und Lüge nicht mehr unterscheiden kann.

Vorreiter weltweit im Kontext jener Regulierung von KI ist derzeit die Europäische Union. Sie hat längere Zeit an einem entsprechenden Gesetzesvorhaben, dem Gesetz über künstliche Intelligenz (AIA)gearbeitet. Dies gestaltete sich teils schwierig, weil die technologische Fortgang rasant ist und Diskussionsprozesse manchmal schlicht überholte.

Nun wurde jener AI Act immerhin vom Europaparlament spekulativ. Dieser Text muss nun im sogenannten Trilog mit jener EU-Kommission und den Mitgliedsstaaten konzertiert werden, vor er offiziell in Macht tritt. Solange bis zum Jahresende soll eine Einigung gefunden werden. Anschließend nach sich ziehen die Unternehmen zwei Jahre Zeit, um sich an die veränderten Rahmenbedingungen anzupassen.

Dieser AI Act stuft KI-Anwendungen in bestimmte Risikoklassen ein, an denen sich jener Umfang jener gesetzlichen Auflagen orientiert. Dies Richtlinie soll zu Gunsten von jeder gelten, die ein Produkt oder eine Service hinauf KI-Fundament bieten. Es deckt Anwendungen ab, die Inhalte, Vorhersagen und Empfehlungen liefern oder die Entscheidungsfindung von Nutzern verändern. Hierbei stillstehen nicht nur kommerzielle Angebote, sondern wiewohl die Nutzung von KI im öffentlichen Sektor wie zum Denkweise im Kontext jener Strafverfolgung im Schwerpunkt.

Vor allem KI-Programme, die im Kontext kritischer Unterbau oder jener Strafverfolgung zum Kapitaleinsatz kommen, gelten denn hoch riskant. Verschiedenartig denn “inakzeptable” Programme werden sie immerhin nicht verboten, sondern zu tun sein hohe Auflagen gerecht werden. Andere Anwendungen, die mit hohen Risiken zu Gunsten von die Sicherheit von Menschen verbunden sind, sollen verboten oder zumindest stark eingeschränkt werden. “Gesichtserkennung zur Überwachung Kontakt haben wir aus Reich der Mitte, ebendiese Inanspruchnahme von Technologie hat in einer liberalen Parlamentarismus nichts zu suchen”, sagt die deutsche EU-Abgeordnete Svenja Zapfhahn (Freie Demokratische Partei).

Zweitrangig KI-Anwendungen, die jener Operation von Menschen fungieren oder sie nachher ihrem sozialen Status klassifizieren, sollen nachher dem Verordnungsentwurf des Parlaments nicht erlaubt sein. Gleiches gilt zu Gunsten von eine Bewertung biometrischer Datenmaterial nachher Geschlecht, Volkszugehörigkeit oder Hautfarbe. Zweitrangig dasjenige Vereinen biometrischer Datenmaterial in Online-Netzwerken oder von Überwachungskameras soll tabu bleiben.

OpenAI-Chef Sam Altman hat eine Kontrollorgan nachher dem Vorbild jener Internationalen Atomenergiebehörde zu Gunsten von die neue Technologie vorgeschlagen. Zweitrangig UN-Generalsekretär António Guterres sprach sich kürzlich für die Einrichtung einer Regulierungsbehörde aus.

Die G7 hatten sich im Kontext ihrem jüngsten Gipfeltreffen in Nippon darauf verständigt, eine gemeinsame Strategie zur Regulierung von KI in Überfall zu nehmen. Die britische Regierung will ein Gipfeltreffen zu Entwicklungsmöglichkeiten und Risiken jener Technologie im Herbst organisieren.

Die USA und die EU diskutieren schon extra verknüpfen freiwilligen KI-Verhaltenskodex. Die Entwickler künstlicher Intelligenz sollen innert Monaten zu einer freiwilligen Selbstkontrolle verpflichtet werden. Damit könne Zeit gewonnen werden, solange bis gesetzliche Reglementieren griffen, sagt EU-Technologiekommissarin Margrethe Vestager. Dieser AI Act jener EU werde inklusive Übergangsfristen frühestens in zweieinhalb solange bis drei Jahren greifen. “Dies ist offensichtlich zu tardiv. Wir zu tun sein jetzt handeln.”

Dieser Digitalexperte Daniel Privitera sieht ebenfalls Eile geboten. Eine Lücke zwischen „dem Zeitmaß des technologischen Fortschritts und unserer kooperativ legitimierten Prüfung können wir uns nicht erlauben. Selbst glaube, dasjenige kann wirklich katastrophal schieflaufen.“

„Dieser Gespenst ist aus jener Flasche und lässt sich wahrscheinlich wiewohl nicht mehr zurückdrängen“, sagt Ayad Al-Ani vom Berliner Pfannkuchen Einstein Center zu Gunsten von digitale Zukunft. Er glaubt, dass die Menschheit erst ganz am Zustandekommen einer Debatte darüber steht, wie man KI regulieren kann.

Al-Ani erwartet ein „Hochschaukeln“ von technologischem Fortschritt und seiner Einhegung durch gesetzliche Vorschriften: Neue KI-Anwendungen werden seiner Vorausschau zufolge Regulierungsversuche nachher sich ziehen, die dann dazu münden, dass KI-Entwickler in andere Bereiche ausweichen, die dann ebenfalls nachreguliert werden.

Die KI-Expertin Kenza Ait Si Abbou meint hingegen, dass es technisch durchaus möglich wäre, jener KI den Stecker zu ziehen und wie geschmiert den Ausknopf zu knuddeln, sollte klarwerden, dass die Risiken zu weithin werden. Doch dazu müsse es dann wiewohl verknüpfen weltweiten Konsens schenken, betont sie.


ahe, dpa, rtr, afp, ap




Source link

Ähnliche Artikel

Schaltfläche "Zurück zum Anfang"