AI Weekly: Microsofts neue Schritte in verantwortungsvoller KI

GettyImages 1238869000

[ad_1]

Wir freuen uns, die Remodel 2022 am 19. Juli und virtuell vom 20. bis 28. Juli wieder persönlich zu präsentieren. Nehmen Sie an aufschlussreichen Gesprächen und spannenden Networking-Möglichkeiten teil. Registrieren Sie sich heute!


Möchten Sie AI Weekly jeden Donnerstag kostenlos in Ihrem Posteingang erhalten? Hier anmelden.


Wir genießen vielleicht die ersten paar Tage des Sommers, aber AI Information macht nie eine Pause, um am Strand zu sitzen, in der Sonne spazieren zu gehen oder den Grill anzuzünden.

Tatsächlich kann es schwierig sein, Schritt zu halten. In den vergangenen Tagen geschah zum Beispiel all dies:

  • Die re:MARS-Ankündigungen von Amazon führten zu medienweiten Facepalms wegen möglicher ethischer und sicherheitsbezogener Bedenken (und allgemeiner Verrücktheit) rund um Alexas neu entdeckte Fähigkeit, die Stimmen von Toten zu replizieren.
  • Über 300 Forscher haben einen offenen Temporary unterzeichnet, in dem sie den Einsatz von GPT-4chan verurteilen.
  • Google veröffentlichte noch ein weiteres Textual content-to-Picture-Modell, Parti.
  • Ich habe meinen Flug nach San Francisco gebucht, um am 19. Juli am persönlichen Govt Summit von VentureBeat auf der Remodel teilzunehmen. (OK, das sind nicht wirklich Neuigkeiten, aber ich freue mich darauf, die KI- und Daten-Group endlich im IRL zusammenkommen zu sehen. Wir sehen uns dort ?)

Aber diese Woche konzentriere ich mich auf die Veröffentlichung einer neuen Model von Microsofts Accountable AI Commonplace – sowie auf die Ankündigung in dieser Woche, dass es plant, den Verkauf von Gesichtsanalyse-Instruments in Azure einzustellen.

Lassen Sie uns eintauchen.

Sharon Goldmannleitender Redakteur und Autor

Der KI-Beat dieser Woche

Verantwortliche KI stand in diesem Jahr im Mittelpunkt vieler Construct-Ankündigungen von Microsoft. Und es besteht kein Zweifel, dass Microsoft seit mindestens 2018 Probleme im Zusammenhang mit verantwortungsbewusster KI angeht und auf Gesetze zur Regulierung der Gesichtserkennungstechnologie drängt.

Microsofts Veröffentlichung von Model 2 seines Accountable AI Requirements in dieser Woche ist ein guter nächster Schritt, sagen KI-Experten, obwohl es noch mehr zu tun gibt. Und obwohl es im Commonplace kaum erwähnt wurde, wurde die weithin beachtete Ankündigung von Microsoft, den öffentlichen Zugang zu Gesichtserkennungstools in Azure einzustellen – aufgrund von Bedenken hinsichtlich Voreingenommenheit, Invasivität und Zuverlässigkeit – als Teil einer umfassenderen Überarbeitung der KI-Ethikrichtlinien von Microsoft angesehen .

Microsofts „großer Schritt nach vorne“ in Bezug auf verantwortungsbewusste KI Normen

Laut dem Informatiker Ben Shneiderman, Autor von Human-Centered AI, ist der neue Accountable AI Commonplace von Microsoft ein großer Schritt nach vorne gegenüber den 18 Richtlinien von Microsoft für die Mensch-KI-Interaktion.

„Die neuen Requirements sind viel spezifischer und verlagern sich von ethischen Bedenken zu Managementpraktiken, Software program-Engineering-Workflows und Dokumentationsanforderungen“, sagte er.

Abhishek Gupta, leitender verantwortlicher KI-Leiter bei der Boston Consulting Group und leitender Forscher am Montreal AI Ethics Institute, stimmt dem zu und nennt den neuen Commonplace einen „dringend benötigten Hauch frischer Luft, weil er einen Schritt über die hochrangigen Prinzipien hinausgeht, die weitgehend gelten warfare bisher der Normalfall.“ er sagte.

Die Zuordnung zuvor artikulierter Prinzipien zu bestimmten Unterzielen und ihre Anwendbarkeit auf die Arten von KI-Systemen und Phasen des KI-Lebenszyklus macht es zu einem umsetzbaren Dokument, erklärte er, während es auch bedeutet, dass Praktiker und Betreiber „das überwältigende Maß an Unbestimmtheit überwinden können die sie erleben, wenn sie versuchen, Prinzipien in die Praxis umzusetzen.“

Ungelöste Voreingenommenheit und Datenschutzrisiken

Angesichts der ungelösten Vorurteile und Datenschutzrisiken bei der Gesichtserkennungstechnologie ist die Entscheidung von Microsoft, den Verkauf seines Azure-Instruments einzustellen, eine „sehr verantwortungsvolle Entscheidung“, fügte Gupta hinzu. „Dies ist der erste Schritt in meiner Überzeugung, dass wir anstelle einer ‚Schnell handeln und Dinge kaputt machen‘-Mentalität eine ‚Verantwortlich schnell entwickeln und Dinge reparieren‘-Mentalität annehmen müssen.“

Aber Annette Zimmerman, VP Analyst bei Gartner, sagt, sie glaube, dass Microsoft die Erkennung von demografischen Merkmalen und Emotionen im Gesicht abschafft, einfach weil das Unternehmen möglicherweise keine Kontrolle darüber hat, wie es verwendet wird.

„Es ist das anhaltend umstrittene Thema, demografische Merkmale wie Geschlecht und Alter zu erkennen, sie möglicherweise mit Emotionen zu kombinieren und sie zu verwenden, um eine Entscheidung zu treffen, die sich auf diese Particular person auswirkt, die bewertet wurde, wie z. B. eine Einstellungsentscheidung oder der Verkauf eines Darlehens“, sie erklärt. „Da das Hauptproblem darin besteht, dass diese Entscheidungen voreingenommen sein könnten, schafft Microsoft diese Technologie ab einschließlich die Emotionserkennung.“

Produkte wie die von Microsoft, bei denen es sich um SDKs oder APIs handelt, die in eine Anwendung integriert werden können, über die Microsoft keine Kontrolle hat, unterscheiden sich von Finish-to-Finish-Lösungen und dedizierten Produkten mit vollständiger Transparenz, fügte sie hinzu.

„Produkte, die Emotionen für Marktforschungszwecke, Storytelling oder Kundenerfahrung erkennen – alles Fälle, in denen Sie keine andere Entscheidung treffen als einen Service zu verbessern – werden in diesem Technologiemarkt weiterhin erfolgreich sein“, sagte sie.

Was im Accountable AI Commonplace von Microsoft fehlt

Experten sagen, dass Microsoft in Bezug auf verantwortungsvolle KI noch viel zu tun hat.

Was fehlt, sagt Shneiderman, sind Anforderungen für Dinge wie Prüfpfade oder Protokollierung; unabhängige Aufsicht; öffentliche Web sites zur Meldung von Vorfällen; Verfügbarkeit von Dokumenten und Berichten für Interessengruppen, einschließlich Journalisten, Interessengruppen, Branchenexperten; offene Berichterstattung über aufgetretene Probleme; und Transparenz über den Prozess von Microsoft für die interne Überprüfung von Projekten.

Ein Faktor, der mehr Aufmerksamkeit verdient, ist die Berücksichtigung der Umweltauswirkungen von KI-Systemen, „insbesondere angesichts der Arbeit, die Microsoft in Richtung groß angelegter Modelle leistet“, sagte Gupta. „Meine Empfehlung ist, als erstklassiger Bürger neben geschäftlichen und funktionalen Überlegungen auch über Umweltaspekte beim Design, der Entwicklung und dem Einsatz von KI-Systemen nachzudenken“, sagte er.

Die Zukunft verantwortungsbewusster KI

Gupta sagte voraus, dass die Ankündigungen von Microsoft ähnliche Aktionen von anderen Firmen in den nächsten 12 Monaten auslösen sollten.

„Möglicherweise sehen wir auch die Veröffentlichung weiterer Instruments und Funktionen innerhalb der Azure-Plattform, die einige der in ihrem Accountable AI Commonplace erwähnten Requirements für Kunden der Azure-Plattform breiter zugänglich machen und so RAI-Funktionen gegenüber denen demokratisieren, die dies nicht unbedingt tun die Ressourcen haben, dies selbst zu tun“, sagte er.

Shneiderman sagte, er hoffe, dass andere Unternehmen in diese Richtung gehen würden, und verwies auf IBMs AI Equity 360 und verwandte Ansätze sowie Googles Individuals and AI Analysis (PAIR) Guidebook.

„Die gute Nachricht ist, dass große und kleinere Unternehmen von vagen ethischen Grundsätzen zu spezifischen Geschäftspraktiken übergehen, indem sie bestimmte Formen der Dokumentation, das Melden von Problemen und den Austausch von Informationen mit bestimmten Interessengruppen/Kunden fordern“, sagte er und fügte hinzu, dass mehr erforderlich seien getan werden, um diese Systeme einer öffentlichen Überprüfung zugänglich zu machen: „Ich denke, es gibt eine wachsende Erkenntnis, dass fehlgeschlagene KI-Systeme eine erhebliche detrimental öffentliche Aufmerksamkeit erzeugen, was zuverlässige, sichere und vertrauenswürdige KI-Systeme zu einem Wettbewerbsvorteil macht.“



[ad_2]

admin

Leave a Reply

Your email address will not be published. Required fields are marked *