Regelwerk für die künstliche Intelligenz
Seitdem jener Veröffentlichung von ChatGPT ist die künstliche Intelligenz (KI) zum Dauerthema geworden. Welches KI kann – zum Denkweise selbständig Texte schreiben oder Bilder produzieren – wurde zu Gunsten von viele erstmals erfahrbar. Und jedermann weiß, dass wir uns erst am Zustandekommen einer Fortgang entscheiden, die tiefgreifende Nachsteigen zu Gunsten von die Menschheit nach sich ziehen wird.
Doch welche sind dasjenige? KI bietet jede Menge Entwicklungsmöglichkeiten – immerhin sie birgt wiewohl eine Vielzahl von Risiken. Wird sie die Menschen eines Tages reinlegen und können? Oder wird es gelingen, sie zu zähmen, einzuhegen, sie produktiv zu nutzen?
Niemand weiß genau, wie gefährlich jener Kapitaleinsatz von KI potenziell ist. Doch sie wird – zumindest von den meisten Expertinnen und Experten – denn in der Regel sehr mächtig eingeschätzt. Positive wie wiewohl negative Auswirkungen könnten demnach immens sein. Finale Mai beschrieben führende Experten die Gefahr durch KI in nur einem Sprung: „Dies Risiko einer Vernichtung durch KI zu verringern sollte eine globale Priorität neben anderen Risiken gesellschaftlichen Ausmaßes sein, wie etwa Pandemien und Nuklearkrieg.“
Pause im Kontext jener Fortgang von gerade fortgeschrittener künstlicher Intelligenz gefordert
hatten.
Mit deutlichen Worten hat wiewohl jener Technologie-Konsulent des britischen Premierministers Rishi Sunak vor den Gefahren durch künstliche Intelligenz gewarnt: Matt Clifford sprach ganz konkret davon, dass viele Menschen durch den Kapitaleinsatz von KI getötet werden könnten. KI müsse so von jetzt an wie möglich in aller Welt reguliert werden, forderte Clifford in einem Interview. Doch derzeit sei noch nicht einmal lukulent, wie KI-Modelle schier kontrolliert werden könnten.
Terrorismus, Waffenproduktion, Operation von Wahlen: Die Ängste vor dem missbräuchlichen Kapitaleinsatz von KI sind weithin. Hinzu kommt die Sorge, die Prüfung extra sie zu verlieren. Dieser KI-Sachkundiger Daniel Privitera warnt vor immer besseren und stärkeren KI-Modellen, die schon teilweise uneingeschränkt strategisch handelten und Menschen täuschen könnten.
Zusammen seien ebendiese KI-Modelle „Blackboxes“: „Niemand versteht, welches gewissermaßen in denen vor sich geht. Zweitrangig OpenAI selbst versteht dasjenige nicht. Und wenn man so irgendetwas nicht versteht, dann kann man es natürlich wiewohl nicht verlässlich kontrollieren und steuern“, so Privitera.
Alexandra Gänse
Digitalexpertin jener Grünen im Europaparlament. Es gebe schon Technologie, die extra Gehirnscans zeigen könne, “welches wir uns vorgestellt nach sich ziehen, welche Bilder wir gesehen nach sich ziehen”. Dies rühre “an unserem Grundkonzept jener freien Körperschaft”.
Ebenfalls sehr verstörend sei die potenzielle Ausgang jener Wirklichkeit, zum Denkweise durch Deepfakes. „Unsrige Stil und Weise zu prüfen, ob eine Information wahr oder nicht wahr ist, wird so kompliziert, dass sie gewissermaßen von normalen Menschen keiner mehr zu leisten ist”, sagt Geese. Ergebnis wäre eine Welt, in jener man zwischen Wahrheit und Lüge nicht mehr unterscheiden kann.
Nun wurde jener AI Act immerhin vom Europaparlament spekulativ. Dieser Text muss nun im sogenannten Trilog mit jener EU-Kommission und den Mitgliedsstaaten konzertiert werden, vor er offiziell in Macht tritt. Solange bis zum Jahresende soll eine Einigung gefunden werden. Anschließend nach sich ziehen die Unternehmen zwei Jahre Zeit, um sich an die veränderten Rahmenbedingungen anzupassen.
Dieser AI Act stuft KI-Anwendungen in bestimmte Risikoklassen ein, an denen sich jener Umfang jener gesetzlichen Auflagen orientiert. Dies Richtlinie soll zu Gunsten von jeder gelten, die ein Produkt oder eine Service hinauf KI-Fundament bieten. Es deckt Anwendungen ab, die Inhalte, Vorhersagen und Empfehlungen liefern oder die Entscheidungsfindung von Nutzern verändern. Hierbei stillstehen nicht nur kommerzielle Angebote, sondern wiewohl die Nutzung von KI im öffentlichen Sektor wie zum Denkweise im Kontext jener Strafverfolgung im Schwerpunkt.
Vor allem KI-Programme, die im Kontext kritischer Unterbau oder jener Strafverfolgung zum Kapitaleinsatz kommen, gelten denn hoch riskant. Verschiedenartig denn “inakzeptable” Programme werden sie immerhin nicht verboten, sondern zu tun sein hohe Auflagen gerecht werden. Andere Anwendungen, die mit hohen Risiken zu Gunsten von die Sicherheit von Menschen verbunden sind, sollen verboten oder zumindest stark eingeschränkt werden. “Gesichtserkennung zur Überwachung Kontakt haben wir aus Reich der Mitte, ebendiese Inanspruchnahme von Technologie hat in einer liberalen Parlamentarismus nichts zu suchen”, sagt die deutsche EU-Abgeordnete Svenja Zapfhahn (Freie Demokratische Partei).
Zweitrangig KI-Anwendungen, die jener Operation von Menschen fungieren oder sie nachher ihrem sozialen Status klassifizieren, sollen nachher dem Verordnungsentwurf des Parlaments nicht erlaubt sein. Gleiches gilt zu Gunsten von eine Bewertung biometrischer Datenmaterial nachher Geschlecht, Volkszugehörigkeit oder Hautfarbe. Zweitrangig dasjenige Vereinen biometrischer Datenmaterial in Online-Netzwerken oder von Überwachungskameras soll tabu bleiben.
Die G7 hatten sich im Kontext ihrem jüngsten Gipfeltreffen in Nippon darauf verständigt, eine gemeinsame Strategie zur Regulierung von KI in Überfall zu nehmen. Die britische Regierung will ein Gipfeltreffen zu Entwicklungsmöglichkeiten und Risiken jener Technologie im Herbst organisieren.
Die USA und die EU diskutieren schon extra verknüpfen freiwilligen KI-Verhaltenskodex. Die Entwickler künstlicher Intelligenz sollen innert Monaten zu einer freiwilligen Selbstkontrolle verpflichtet werden. Damit könne Zeit gewonnen werden, solange bis gesetzliche Reglementieren griffen, sagt EU-Technologiekommissarin Margrethe Vestager. Dieser AI Act jener EU werde inklusive Übergangsfristen frühestens in zweieinhalb solange bis drei Jahren greifen. “Dies ist offensichtlich zu tardiv. Wir zu tun sein jetzt handeln.”
Dieser Digitalexperte Daniel Privitera sieht ebenfalls Eile geboten. Eine Lücke zwischen „dem Zeitmaß des technologischen Fortschritts und unserer kooperativ legitimierten Prüfung können wir uns nicht erlauben. Selbst glaube, dasjenige kann wirklich katastrophal schieflaufen.“
„Dieser Gespenst ist aus jener Flasche und lässt sich wahrscheinlich wiewohl nicht mehr zurückdrängen“, sagt Ayad Al-Ani vom Berliner Pfannkuchen Einstein Center zu Gunsten von digitale Zukunft. Er glaubt, dass die Menschheit erst ganz am Zustandekommen einer Debatte darüber steht, wie man KI regulieren kann.
Al-Ani erwartet ein „Hochschaukeln“ von technologischem Fortschritt und seiner Einhegung durch gesetzliche Vorschriften: Neue KI-Anwendungen werden seiner Vorausschau zufolge Regulierungsversuche nachher sich ziehen, die dann dazu münden, dass KI-Entwickler in andere Bereiche ausweichen, die dann ebenfalls nachreguliert werden.
Die KI-Expertin Kenza Ait Si Abbou meint hingegen, dass es technisch durchaus möglich wäre, jener KI den Stecker zu ziehen und wie geschmiert den Ausknopf zu knuddeln, sollte klarwerden, dass die Risiken zu weithin werden. Doch dazu müsse es dann wiewohl verknüpfen weltweiten Konsens schenken, betont sie.
ahe, dpa, rtr, afp, ap