Alles wird gut?
Quelle: https://de.wikipedia.org/wiki/Bletchley_Park#/media/Datei:Bletchley_Park_Mansion.jpg

Alles wird gut?

Die Erkl?rung von Bletchley-Park zur KI-Sicherheit

Im britischen Bletchley Park (wo im zweiten Weltkrieg die ?Government Code and Cypher School? den deutschen Enigma-Code knackte) tagen seit gestern (1. November 2023) führende Industrie- und Regierungsvertreter.

Ihr Thema: KI-Sicherheit.

Die Tagung ist noch im Gange, aber eine Erkl?rung gibt es schon. Die hat bei mir leider kein warmes wohliges Gefühl ausgel?st.

Weiter unten finden Sie den Wortlaut der Erkl?rung und dazwischen (mit Balken links auff?llig markiert) was ich zwischen den Zeilen lese. Eine deutsche Version folgt ganz am Schluss.

Bleibt zu hoffen, dass hinter den Kulissen viele wichtige Gespr?che geführt wurden, die weit mehr ausl?sen, als die Erkl?rung verr?t.

Und Sie? Wie sehen Sie das?

Matthias Wiemeyer


The Bletchley Declaration by Countries Attending the AI Safety Summit, 1-2 November 2023

Artificial Intelligence (AI) presents enormous global opportunities: it has the potential to transform and enhance human wellbeing, peace and prosperity. To realise this, we affirm that, for the good of all, AI should be designed, developed, deployed, and used, in a manner that is safe, in such a way as to be human-centric, trustworthy and responsible. We welcome the international community’s efforts so far to cooperate on AI to promote inclusive economic growth, sustainable development and innovation, to protect human rights and fundamental freedoms, and to foster public trust and confidence in AI systems to fully realise their potential.

Lasst uns am Anfang vor allem die Chancen betonen. Immerhin haben viele von uns Milliarden investiert und ausserdem kann das hier niemand mehr stoppen. Wenn die KI-Revolution ohnehin kommt, konzentrieren wir uns auf die Chancen. Das haben wir beim Klimawandel leider vers?umt. Ist doch sch?n, wenn man im Winter weniger Heizkosten hat und in Kopenhagen Orangenb?ume blühen. Das Glas ist halb voll.

AI systems are already deployed across many domains of daily life including housing, employment, transport, education, health, accessibility, and justice, and their use is likely to increase. We recognise that this is therefore a unique moment to act and affirm the need for the safe development of AI and for the transformative opportunities of AI to be used for good and for all, in an inclusive manner in our countries and globally. This includes for public services such as health and education, food security, in science, clean energy, biodiversity, and climate, to realise the enjoyment of human rights, and to strengthen efforts towards the achievement of the United Nations Sustainable Development Goals.

Lasst uns den Leuten sagen, dass KI schon l?ngst überall eingesetzt wird. Das wird sie beruhigen. Dass die Mafia genauso scharf auf die Technik ist, wie die Krebsforschung, müssen wir ja nicht unbedingt betonen.

Alongside these opportunities, AI also poses significant risks, including in those domains of daily life. To that end, we welcome relevant international efforts to examine and address the potential impact of AI systems in existing fora and other relevant initiatives, and the recognition that the protection of human rights, transparency and explainability, fairness, accountability, regulation, safety, appropriate human oversight, ethics, bias mitigation, privacy and data protection needs to be addressed. We also note the potential for unforeseen risks stemming from the capability to manipulate content or generate deceptive content. All of these issues are critically important and we affirm the necessity and urgency of addressing them.

Wir müssen auch die Risiken benennen. Sonst glaubt uns keiner. Aber lasst uns das m?glichst abstrakt und allgmein halten, damit sich niemand zu sehr aufregt.

Particular safety risks arise at the ‘frontier’ of AI, understood as being those highly capable general-purpose AI models, including foundation models, that could perform a wide variety of tasks - as well as relevant specific narrow AI that could exhibit capabilities that cause harm - which match or exceed the capabilities present in today’s most advanced models. Substantial risks may arise from potential intentional misuse or unintended issues of control relating to alignment with human intent. These issues are in part because those capabilities are not fully understood and are therefore hard to predict. We are especially concerned by such risks in domains such as cybersecurity and biotechnology, as well as where frontier AI systems may amplify risks such as disinformation. There is potential for serious, even catastrophic, harm, either deliberate or unintentional, stemming from the most significant capabilities of these AI models. Given the rapid and uncertain rate of change of AI, and in the context of the acceleration of investment in technology, we affirm that deepening our understanding of these potential risks and of actions to address them is especially urgent.

Immer wenn es problematisch wird, verpacken wir die Aussage in so viel Politiker-Blabla, dass keiner mehr richtig hinschaut. Schlimm genug, dass Elon Musk gesagt hat, KI sei gef?hrlicher als Atombomben. Sowas tut man einfach nicht.

Many risks arising from AI are inherently international in nature, and so are best addressed through international cooperation. We resolve to work together in an inclusive manner to ensure human-centric, trustworthy and responsible AI that is safe, and supports the good of all through existing international fora and other relevant initiatives, to promote cooperation to address the broad range of risks posed by AI. In doing so, we recognise that countries should consider the importance of a pro-innovation and proportionate governance and regulatory approach that maximises the benefits and takes into account the risks associated with AI. This could include making, where appropriate, classifications and categorisations of risk based on national circumstances and applicable legal frameworks. We also note the relevance of cooperation, where appropriate, on approaches such as common principles and codes of conduct. With regard to the specific risks most likely found in relation to frontier AI, we resolve to intensify and sustain our cooperation, and broaden it with further countries, to identify, understand and as appropriate act, through existing international fora and other relevant initiatives, including future international AI Safety Summits.

Wenn wir die Entwicklung durch Gesetze beschr?nken, wird jemand die Gesetze unterlaufen, ignorieren oder seine Server in einer Bananenrepublik aufstellen, die keine einschr?nkenden Gesetze hat. Wir wollen doch nicht, dass ein Schurkenstaat die m?chtigste KI der Welt besitzt und wir das Nachsehen haben. Also machen wirs wie beim Klimaschutz: Wir betonen, wie sehr uns das Wohlergehen der Menschheit am Herzen liegt und treffen uns zum Beschwichtigen.

All actors have a role to play in ensuring the safety of AI: nations, international fora and other initiatives, companies, civil society and academia will need to work together. Noting the importance of inclusive AI and bridging the digital divide, we reaffirm that international collaboration should endeavour to engage and involve a broad range of partners as appropriate, and welcome development-orientated approaches and policies that could help developing countries strengthen AI capacity building and leverage the enabling role of AI to support sustainable growth and address the development gap.

Noch einmal alle umarmen, die sich irgendwie betroffen fühlen ...

We affirm that, whilst safety must be considered across the AI lifecycle, actors developing frontier AI capabilities, in particular those AI systems which are unusually powerful and potentially harmful, have a particularly strong responsibility for ensuring the safety of these AI systems, including through systems for safety testing, through evaluations, and by other appropriate measures. We encourage all relevant actors to provide context-appropriate transparency and accountability on their plans to measure, monitor and mitigate potentially harmful capabilities and the associated effects that may emerge, in particular to prevent misuse and issues of control, and the amplification of other risks.

In the context of our cooperation, and to inform action at the national and international levels, our agenda for addressing frontier AI risk will focus on:

  • identifying AI safety risks of shared concern, building a shared scientific and evidence-based understanding of these risks, and sustaining that understanding as capabilities continue to increase, in the context of a wider global approach to understanding the impact of AI in our societies.
  • building respective risk-based policies across our countries to ensure safety in light of such risks, collaborating as appropriate while recognising our approaches may differ based on national circumstances and applicable legal frameworks. This includes, alongside increased transparency by private actors developing frontier AI capabilities, appropriate evaluation metrics, tools for safety testing, and developing relevant public sector capability and scientific research.

In furtherance of this agenda, we resolve to support an internationally inclusive network of scientific research on frontier AI safety that encompasses and complements existing and new multilateral, plurilateral and bilateral collaboration, including through existing international fora and other relevant initiatives, to facilitate the provision of the best science available for policy making and the public good.

In recognition of the transformative positive potential of AI, and as part of ensuring wider international cooperation on AI, we resolve to sustain an inclusive global dialogue that engages existing international fora and other relevant initiatives and contributes in an open manner to broader international discussions, and to continue research on frontier AI safety to ensure that the benefits of the technology can be harnessed responsibly for good and for all. We look forward to meeting again in 2024.

Na ja, eigentlich war schon alles gesagt und wir haben auch nichts Handfestes vorzuweisen. Aber es schadet ja nicht, am Schluss noch zu schreiben, wie wir uns bemühen und dass wir uns demn?chst wieder einmal treffen sollten.

Agreement

The countries represented were:

  • Australia
  • Brazil
  • Canada
  • Chile
  • China
  • European Union
  • France
  • Germany
  • India
  • Indonesia
  • Ireland
  • Israel
  • Italy
  • Japan
  • Kenya
  • Kingdom of Saudi Arabia
  • Netherlands
  • Nigeria
  • The Philippines
  • Republic of Korea
  • Rwanda
  • Singapore
  • Spain
  • Switzerland
  • Türkiye
  • Ukraine
  • United Arab Emirates
  • United Kingdom of Great Britain and Northern Ireland
  • United States of America

References to ‘governments’ and ‘countries’ include international organisations acting in accordance with their legislative or executive competences.

Ein offizielles Mandat oder Entscheidungsvollmachten haben wir zwar alle nicht, aber die Liste der L?nder macht am Ende bestimmt noch Eindruck.

Deutsche Version


Die Bletchley-Erkl?rung der L?nder, die am KI-Sicherheitsgipfel am 1. und 2. November 2023 teilnehmen

Künstliche Intelligenz (KI) bietet enorme globale Chancen: Sie hat das Potenzial, das menschliche Wohlergehen, den Frieden und den Wohlstand zu ver?ndern und zu verbessern. Um dies zu verwirklichen, bekr?ftigen wir, dass KI zum Wohle aller so konzipiert, entwickelt, eingesetzt und genutzt werden sollte, dass sie sicher, menschenzentriert, vertrauenswürdig und verantwortungsvoll ist. Wir begrü?en die bisherigen Bemühungen der internationalen Gemeinschaft, im Bereich der KI zusammenzuarbeiten, um integratives Wirtschaftswachstum, nachhaltige Entwicklung und Innovation zu f?rdern, die Menschenrechte und Grundfreiheiten zu schützen und das Vertrauen der ?ffentlichkeit in KI-Systeme zu st?rken, damit diese ihr Potenzial voll entfalten k?nnen.

Lasst uns am Anfang vor allem die Chancen betonen. Immerhin haben viele von uns Milliarden investiert und ausserdem kann das hier niemand mehr stoppen. Wenn die KI-Revolution ohnehin kommt, konzentrieren wir uns auf die Chancen. Das haben wir beim Klimawandel leider vers?umt. Ist doch sch?n, wenn man im Winter weniger Heizkosten hat und in Kopenhagen Orangenb?ume blühen. Das Glas ist halb voll.

KI-Systeme werden bereits in vielen Bereichen des t?glichen Lebens eingesetzt, z. B. in den Bereichen Wohnen, Arbeit, Verkehr, Bildung, Gesundheit, Zug?nglichkeit und Justiz, und ihre Nutzung wird wahrscheinlich noch zunehmen. Wir sind uns bewusst, dass dies ein einzigartiger Moment ist, um zu handeln und zu bekr?ftigen, dass die sichere Entwicklung der KI und die transformativen M?glichkeiten der KI zum Guten und für alle genutzt werden müssen, und zwar in unseren L?ndern und weltweit. Dazu geh?ren ?ffentliche Dienstleistungen wie Gesundheit und Bildung, Ern?hrungssicherheit, Wissenschaft, saubere Energie, biologische Vielfalt und Klima, die Verwirklichung der Menschenrechte und die St?rkung der Bemühungen um die Verwirklichung der Ziele für nachhaltige Entwicklung der Vereinten Nationen.

Lass uns den Leuten sagen, dass KI schon l?ngst überall eingesetzt wird. Das wird sie beruhigen. Dass die Mafia genauso scharf auf die Technik ist, wie die Krebsforschung, müssen wir ja nicht unbedingt betonen.

Neben diesen Chancen birgt die KI aber auch erhebliche Risiken, auch in den Bereichen des t?glichen Lebens. In diesem Sinne begrü?en wir die einschl?gigen internationalen Bemühungen, die potenziellen Auswirkungen von KI-Systemen in bestehenden Foren und anderen einschl?gigen Initiativen zu untersuchen und anzugehen, sowie die Erkenntnis, dass der Schutz der Menschenrechte, Transparenz und Erkl?rbarkeit, Fairness, Rechenschaftspflicht, Regulierung, Sicherheit, angemessene menschliche Aufsicht, Ethik, Abschw?chung von Vorurteilen, Schutz der Privatsph?re und Datenschutz behandelt werden müssen. Wir weisen auch auf das Potenzial für unvorhergesehene Risiken hin, die sich aus der M?glichkeit ergeben, Inhalte zu manipulieren oder irreführende Inhalte zu erzeugen. Alle diese Fragen sind von entscheidender Bedeutung, und wir bekr?ftigen die Notwendigkeit und Dringlichkeit, sich mit ihnen zu befassen.

Wir müssen auch die Risiken benennen. Sonst glaubt uns keiner. Aber lasst uns das m?glichst abstrakt und allgmein halten, damit sich niemand zu sehr aufregt.

Besondere Sicherheitsrisiken ergeben sich an der "Grenze" der KI, d. h. bei hochgradig f?higen KI-Modellen für allgemeine Zwecke, einschlie?lich der Basismodelle, die eine Vielzahl von Aufgaben ausführen k?nnten, sowie bei einschl?gigen spezifischen KI-Modellen, die schadenverursachende F?higkeiten aufweisen k?nnten, die den F?higkeiten der modernsten Modelle von heute entsprechen oder diese übertreffen. Erhebliche Risiken k?nnen sich aus einem m?glichen vors?tzlichen Missbrauch oder unbeabsichtigten Kontrollproblemen im Zusammenhang mit der Anpassung an menschliche Absichten ergeben. Diese Probleme sind zum Teil darauf zurückzuführen, dass diese F?higkeiten nicht vollst?ndig verstanden werden und daher schwer vorherzusagen sind. Besonders besorgniserregend sind solche Risiken in Bereichen wie der Cybersicherheit und der Biotechnologie sowie in Bereichen, in denen KI-Systeme Risiken wie Desinformation verst?rken k?nnen. Die wichtigsten F?higkeiten dieser KI-Modelle k?nnen schwerwiegende, ja sogar katastrophale Sch?den verursachen, die entweder absichtlich oder unabsichtlich herbeigeführt werden. In Anbetracht der raschen und unsicheren Ver?nderungsrate der KI und im Zusammenhang mit der Beschleunigung der Investitionen in die Technologie bekr?ftigen wir, dass es besonders dringend ist, unser Verst?ndnis dieser potenziellen Risiken und von Ma?nahmen zu ihrer Bew?ltigung zu vertiefen.

Immer wenn es problematisch wird, verpacken wir die Aussage in so viel Politiker-Blabla, dass keiner mehr richtig hinschaut. Schlimm genug, dass Elon Musk gesagt hat, KI sei gef?hrlicher als Atombomben. Sowas tut man einfach nicht.

Viele Risiken, die sich aus der KI ergeben, sind von Natur aus internationaler Natur und lassen sich daher am besten durch internationale Zusammenarbeit angehen. Wir sind entschlossen, in umfassender Weise zusammenzuarbeiten, um eine auf den Menschen ausgerichtete, vertrauenswürdige und verantwortungsvolle KI zu gew?hrleisten, die sicher ist und dem Wohl aller dient, und zwar im Rahmen bestehender internationaler Foren und anderer einschl?giger Initiativen, um die Zusammenarbeit bei der Bew?ltigung des breiten Spektrums der von KI ausgehenden Risiken zu f?rdern. Dabei erkennen wir an, dass die L?nder die Bedeutung eines innovationsfreundlichen und verh?ltnism??igen Governance- und Regulierungsansatzes berücksichtigen sollten, der den Nutzen maximiert und die mit KI verbundenen Risiken berücksichtigt. Dazu k?nnte gegebenenfalls eine Klassifizierung und Einstufung der Risiken auf der Grundlage der nationalen Gegebenheiten und des geltenden Rechtsrahmens geh?ren. Wir weisen auch darauf hin, dass eine Zusammenarbeit bei Ans?tzen wie gemeinsamen Grunds?tzen und Verhaltenskodizes von Bedeutung ist, wo dies angebracht ist. Im Hinblick auf die spezifischen Risiken, die am ehesten im Zusammenhang mit Pionier-KI auftreten, sind wir entschlossen, unsere Zusammenarbeit zu intensivieren und aufrechtzuerhalten und sie auf weitere L?nder auszudehnen, um im Rahmen bestehender internationaler Foren und anderer einschl?giger Initiativen, einschlie?lich künftiger internationaler KI-Sicherheitsgipfel, Risiken zu ermitteln, zu verstehen und gegebenenfalls zu handeln.

Wenn wir die Entwicklung durch Gesetze beschr?nken, wird jemand die Gesetze unterlaufen, ignorieren oder seine Server in einer Bananenrepublik aufstellen, die keine einschr?nkenden Gesetze hat. Wir wollen doch nicht, dass ein Schurkenstaat die m?chtigste KI der Welt besitzt und wir das Nachsehen haben. Also machen wirs wie beim Klimaschutz: Wir betonen, wie sehr uns das Wohlergehen der Menschheit am Herzen liegt und treffen uns zum Beschwichtigen.

Alle Akteure müssen bei der Gew?hrleistung der Sicherheit der KI eine Rolle spielen: Nationen, internationale Foren und andere Initiativen, Unternehmen, die Zivilgesellschaft und die Wissenschaft müssen zusammenarbeiten. In Anbetracht der Bedeutung einer inklusiven KI und der überbrückung der digitalen Kluft bekr?ftigen wir, dass die internationale Zusammenarbeit darauf abzielen sollte, ein breites Spektrum von Partnern einzubinden und zu beteiligen, und begrü?en entwicklungsorientierte Ans?tze und Strategien, die den Entwicklungsl?ndern helfen k?nnten, den Aufbau von KI-Kapazit?ten zu st?rken und die Rolle der KI zur F?rderung eines nachhaltigen Wachstums und zur überwindung des Entwicklungsgef?lles zu nutzen.

Noch einmal alle umarmen, die sich irgendwie betroffen fühlen ...

Wir bekr?ftigen, dass die Sicherheit zwar w?hrend des gesamten Lebenszyklus der KI berücksichtigt werden muss, dass aber die Akteure, die KI-F?higkeiten im Grenzbereich entwickeln, insbesondere solche KI-Systeme, die ungew?hnlich leistungsf?hig und potenziell sch?dlich sind, eine besonders gro?e Verantwortung dafür tragen, die Sicherheit dieser KI-Systeme zu gew?hrleisten, unter anderem durch Systeme für Sicherheitstests, durch Bewertungen und durch andere geeignete Ma?nahmen. Wir ermutigen alle relevanten Akteure, kontextangemessene Transparenz und Rechenschaftspflicht in Bezug auf ihre Pl?ne zur Messung, überwachung und Abschw?chung potenziell sch?dlicher F?higkeiten und der damit verbundenen Auswirkungen, die entstehen k?nnen, zu gew?hrleisten, insbesondere um Missbrauch und Kontrollprobleme sowie die Verst?rkung anderer Risiken zu verhindern.

Im Rahmen unserer Zusammenarbeit und als Grundlage für Ma?nahmen auf nationaler und internationaler Ebene wird sich unsere Agenda für den Umgang mit KI-Risiken an den Grenzen konzentrieren auf:

  • Identifizierung von KI-Sicherheitsrisiken, die für alle von Belang sind, Aufbau eines gemeinsamen wissenschaftlichen und evidenzbasierten Verst?ndnisses dieser Risiken und Aufrechterhaltung dieses Verst?ndnisses im Kontext eines umfassenderen globalen Ansatzes zum Verst?ndnis der Auswirkungen von KI in unseren Gesellschaften, wenn die F?higkeiten weiter zunehmen.
  • Aufbau einer jeweiligen risikobasierten Politik in unseren L?ndern, um die Sicherheit angesichts dieser Risiken zu gew?hrleisten, wobei wir gegebenenfalls zusammenarbeiten und gleichzeitig anerkennen, dass unsere Ans?tze je nach den nationalen Gegebenheiten und den geltenden rechtlichen Rahmenbedingungen unterschiedlich sein k?nnen. Dazu geh?ren neben einer erh?hten Transparenz der privaten Akteure, die KI-F?higkeiten in den Pionierbereichen entwickeln, auch geeignete Bewertungsma?st?be und Instrumente für die Sicherheitsprüfung sowie die Entwicklung einschl?giger F?higkeiten des ?ffentlichen Sektors und der wissenschaftlichen Forschung.

Zur F?rderung dieser Agenda sind wir entschlossen, ein internationales inklusives Netzwerk wissenschaftlicher Forschung zur Sicherheit von KI-Pionieren zu unterstützen, das bestehende und neue multilaterale, plurilaterale und bilaterale Zusammenarbeit umfasst und erg?nzt, auch im Rahmen bestehender internationaler Foren und anderer einschl?giger Initiativen, um die Bereitstellung der besten verfügbaren wissenschaftlichen Erkenntnisse für die politische Entscheidungsfindung und das ?ffentliche Wohl zu erleichtern.

In Anerkennung des positiven Transformationspotenzials der KI und als Teil der Gew?hrleistung einer umfassenderen internationalen Zusammenarbeit im Bereich der KI sind wir entschlossen, einen integrativen globalen Dialog aufrechtzuerhalten, der bestehende internationale Foren und andere einschl?gige Initiativen einbezieht und in offener Weise zu umfassenderen internationalen Diskussionen beitr?gt, und die Forschung im Bereich der KI-Sicherheit fortzusetzen, um sicherzustellen, dass die Vorteile der Technologie verantwortungsbewusst für das Gute und für alle genutzt werden k?nnen. Wir freuen uns auf ein Wiedersehen im Jahr 2024.

Na ja, eigentlich war schon alles gesagt und wir haben auch nichts Handfestes vorzuweisen. Aber es schadet ja nicht, am Schluss noch zu schreiben, wie wir uns bemühen und dass wir uns demn?chst wieder einmal treffen sollten.

Abkommen

Die vertretenen L?nder waren:

  • Australien
  • Brasilien
  • Kanada
  • Chile
  • China
  • Europ?ische Union
  • Frankreich
  • Deutschland
  • Indien
  • Indonesien
  • Irland
  • Israel
  • Italien
  • Japan
  • Kenia
  • K?nigreich Saudi-Arabien
  • Niederlande
  • Nigeria
  • Die Philippinen
  • Republik Korea
  • Ruanda
  • Singapur
  • Spanien
  • Schweiz
  • Türkiye
  • Ukraine
  • Vereinigte Arabische Emirate
  • Vereinigtes K?nigreich von Gro?britannien und Nordirland
  • Vereinigte Staaten von Amerika

Verweise auf "Regierungen" und "L?nder" schlie?en internationale Organisationen ein, die im Rahmen ihrer legislativen oder exekutiven Befugnisse handeln.

Ein offizielles Mandat oder Entscheidungsvollmachten haben wir zwar alle nicht, aber die Liste der L?nder macht am Ende bestimmt noch Eindruck.

要查看或添加评论,请登录

Matthias Wiemeyer的更多文章

社区洞察

其他会员也浏览了