Microsoft hofft, dass sich die Menschen nicht zu sehr auf seinen KI-Assistenten verlassen

[ad_1]
Heute Morgen hat Microsoft den Veröffentlichungstermin für seine KI-gestützte Copilot-Funktion festgelegt und einige seiner Funktionen zum ersten Mal vorgestellt. Auf einer Podiumsdiskussion zum Thema „Verantwortungsvolle KI“ im Anschluss an die Ankündigung sprachen Führungskräfte des Unternehmens über die Gefahr einer übermäßigen Abhängigkeit von seiner generativen Software, die nachweislich Blogbeiträge, Bilder und E-Mails auf der Grundlage von Benutzereingaben erstellte.
Sechs Monate nachdem das Unternehmen das Team entlassen hatte, das sich für die Einhaltung verantwortungsvoller KI-Prinzipien bei den von ihm ausgelieferten Produkten einsetzte, versuchten die Führungskräfte, auf der Bühne eine klare Aussage zu machen: „Alles ist in Ordnung.“ Verantwortungsvolle KI ist bei Microsoft immer noch ein Thema. Und Copilot wird Ihren Job nicht annehmen.
„Das Produkt, das Copilot genannt wird, ist wirklich beabsichtigt“, sagte Sarah Bird, die verantwortliche KI für grundlegende KI-Technologien bei Microsoft leitet. „Es ist wirklich großartig, mit Ihnen zusammenzuarbeiten. Es ist definitiv nicht großartig, dich zu ersetzen.“
Bird verwies auf eine Demonstration der Einführungsveranstaltung, bei der Copilot im Namen eines Benutzers eine E-Mail verfasste. „Wir wollen sicherstellen, dass die Leute tatsächlich überprüfen, ob der Inhalt dieser E-Mails das ist, was sie sagen wollen“, sagte Bird. Die Diskussionsteilnehmer erwähnten, dass der Bing-Chat Zitate enthält, die menschliche Benutzer dann überprüfen können.
„Diese Art von Benutzererfahrung trägt dazu bei, die übermäßige Abhängigkeit vom System zu verringern“, sagte Bird. „Sie nutzen es als Werkzeug, verlassen sich aber nicht darauf, dass es alles für sie erledigt.“
„Wir möchten den Menschen die Möglichkeit geben, Inhalte zu überprüfen, so als würden sie recherchieren“, versicherte Divya Kumar, Microsofts GM für Suche und KI-Marketing, dem Publikum weiter. „Der menschliche Faktor wird so wichtig sein.“
Die Diskussionsteilnehmer räumten ein, dass Copilot (zumindest zum jetzigen Zeitpunkt) anfällig für Fehlinformationen und Desinformationen sein wird – einschließlich solcher, die andere generative KI-Tools erzeugen könnten. Microsoft hat der Integration von Tools wie Zitaten und Inhaltsnachweisen (die KI-generierten Bildern in Bing ein digitales Wasserzeichen hinzufügen) Priorität eingeräumt, um sicherzustellen, dass die Menschen die Generationen von Copilot als Ausgangspunkte und nicht als Ersatz für ihre eigene Arbeit betrachten.
Die Diskussionsteilnehmer forderten das Publikum auf, keine Angst vor den Auswirkungen zu haben, die generative Tools haben könnten. „Mein Team und ich nehmen das wirklich ernst“, sagte Chitra Gopalakrishnan, Partner Director of Compliance bei Microsoft. „Von der Entwicklung bis zur Bereitstellung durchlaufen alle diese Funktionen eine strenge ethische Analyse, Wirkungsanalyse sowie Risikominderung.“
Die Diskussionsteilnehmer erkannten jedoch später an, dass generative Tools die Landschaft tragfähiger Karrieren drastisch verändern könnten.
„Wenn Sie ein leistungsstarkes Tool haben, mit dem Sie zusammenarbeiten können, müssen Sie etwas anderes tun“, sagte Bird. „Wir wissen, dass sich einige Arbeitsplätze ändern werden.“
[ad_2]