Stummel Neubewertung der Fairness künstlicher Intelligenz durch Optimierung des Sozialwohls – Securities.io
Vernetzen Sie sich mit uns

Künstliche Intelligenz

Neubewertung der Fairness künstlicher Intelligenz durch Optimierung des sozialen Wohlergehens

mm

Securities.io hält strenge redaktionelle Standards ein und erhält möglicherweise eine Vergütung für geprüfte Links. Wir sind kein registrierter Anlageberater und dies stellt keine Anlageberatung dar. Bitte beachten Sie unsere Affiliate-Offenlegung.

Optimierung des Sozialwesens

Da KI-Systeme immer weiter verbreitet und leistungsfähiger werden, ist die Frage, wie sie fair und gerecht gemacht werden können, zur größten Herausforderung geworden. Von der Kreditvergabe und Einstellung bis hin zum Gesundheitswesen und der Strafjustiz haben KI-Algorithmen nun begonnen, das Leben und den Lebensunterhalt von Einzelpersonen und Gemeinschaften zu kontrollieren. Oftmals operieren diese Algorithmen auf eine Weise, die unsichtbar, unverantwortlich und manchmal sogar voreingenommen gegen historisch benachteiligte Gruppen.

Als Reaktion auf diese Bedenken hat sich eine Gemeinschaft aus Forschern, Praktikern und politischen Entscheidungsträgern zusammengeschlossen, um „faire“ KI-Systeme zu entwickeln, die alle gleich behandeln und gesellschaftliche Ungleichheiten nicht aufrechterhalten oder verstärken. Der vorherrschende Ansatz zur Formalisierung und Operationalisierung von Fairness in der KI ist die Verwendung von „statistischen Paritätsmetriken“, die darauf abzielen, bestimmte Leistungskennzahlen wie Auswahl- oder Fehlerraten über geschützte Gruppen hinweg anzugleichen.

Obwohl paritätsbasierte Fairnesskonzepte in der KI-Community umfassend untersucht und übernommen wurden, werden sie von Wissenschaftlern zunehmend kritisiert. Diese argumentieren, dass sie konzeptionell fehlerhaft, praktisch begrenzt und potenziell kontraproduktiv seien. Sie argumentieren, dass die bloße Angleichung statistischer Ergebnisse zwischen Gruppen nicht ausreicht, um substanzielle Fairness zu erreichen, da dabei die tatsächlichen Auswirkungen von KI-Entscheidungen auf das Wohlergehen von Einzelpersonen und Gemeinschaften außer Acht gelassen werden.

In ein neuer Beitrag im CPAIOR 2024-Protokollschlägt ein Forscherteam der Carnegie Mellon University und des Stevens Institute of Technology einen alternativen Ansatz zur KI-Fairness vor, der auf der Optimierung des sozialen Wohlergehens basiert. Unter der Leitung von John Hooker, Professor für Operations Research an der Carnegie Mellon University, verwenden die Autoren die bekannte soziale Wohlfahrtsfunktion „Alpha-Fairness“, um die Einschränkungen und blinden Flecken gängiger statistischer Paritätsmetriken wie demografischer Parität, ausgeglichener Chancen und prädiktiver Ratenparität zu analysieren.

Ihre Ergebnisse zeigen, dass diese Paritätsmetriken oft nicht mit den Prinzipien der Verteilungsgerechtigkeit übereinstimmen, wie etwa der Priorisierung der Schwächsten oder der gerechten Verteilung von Nutzen und Lasten. In vielen Fällen ist die Alpha-Fair-Lösung weit von der Paritätslösung entfernt, sodass diese Metriken zu KI-Systemen führen können, die sowohl aus Effizienz- als auch aus Gerechtigkeitsperspektive suboptimal sind.

Dieser hat große Auswirkungen auf den Bereich der KI-Ethik und die Bemühungen, maschinelle Lernsysteme zu entwickeln, die menschliche Werte und soziale Gerechtigkeit respektieren. Es bedeutet, dass wir einen umfassenderen und differenzierteren Ansatz für algorithmische Fairness benötigen, der über statistische Metriken hinausgeht und die moralischen Kompromisse der KI in Bereichen mit hohem Einsatz angeht: Optimierung des sozialen Wohlergehens.

Soziale Wohlfahrtsoptimierung verstehen

Im Kern ist die soziale Wohlfahrtsoptimierung ein völlig anderes Paradigma für die Betrachtung und Umsetzung von Fairness in der KI. Anstatt sich eng auf die Angleichung bestimmter Kennzahlen zwischen Gruppen zu konzentrieren, geht es einen Schritt zurück und berücksichtigt die breiteren gesellschaftlichen Auswirkungen von KI-Entscheidungen auf das Wohlergehen und Wohlbefinden der Menschen.

Eine ausgewogene Waage

Die Idee besteht darin, KI-Systeme zu entwickeln, die explizit darauf abzielen, eine soziale Wohlfahrtsfunktion zu maximieren, die die von allen betroffenen Personen erfahrenen Vorteile (also Nutzen und Kosten) zu einem einzigen Maß für soziales Wohl zusammenfasst. Nach diesem Ansatz können KI-Praktiker Algorithmen entwickeln, die diese konkurrierenden Ziele ausbalancieren, indem sie eine soziale Wohlfahrtsfunktion festlegen, die wohlüberlegte moralische Urteile über die relative Bedeutung von Effizienz und Gerechtigkeit widerspiegelt.

Die Optimierung des sozialen Wohlergehens hat ihre Wurzeln in der Wohlfahrtsökonomie, die sich seit langem mit Verteilungsgerechtigkeit und kollektiver Entscheidungsfindung beschäftigt. Ökonomen und Philosophen haben verschiedene soziale Wohlfahrtsfunktionen vorgeschlagen, die unterschiedliche ethische Prinzipien und Werturteile widerspiegeln, wie etwa Utilitarismus (Maximierung der Nutzensumme), Prioritarismus (Nutzengewinne für die Ärmsten stärker gewichten) und Egalitarismus (Minimierung der Ungleichheit).

In den letzten Jahren haben immer mehr KI-Forscher damit begonnen, die Optimierung des sozialen Wohls als Möglichkeit zu untersuchen, Fairness in maschinelle Lernsysteme einzubetten. Dies Die Arbeit basiert auf den Aufsätzen „Algorithmic decision making and the cost of fairness“ von Heidari et al. sowie Corbett-Davies und Goel, in dem erstmals die Idee eingeführt wurde, soziale Wohlfahrtsfunktionen zu verwenden, um die unterschiedlichen Auswirkungen von KI-Entscheidungen auf verschiedene Einzelpersonen und Gruppen zu erfassen.

Eine Möglichkeit, dies zu tun, ist die Alpha-Fairness, eine parametrische Klasse von Wohlfahrtsfunktionen, die studiert worden in der Wirtschaft und der sozialen Entscheidungsfindung seit 70 Jahren. Alpha-Fairness ermöglicht es Ihnen, zwischen utilitaristischen und egalitären Zielen mit einem einzigen Parameter Alpha zu interpolieren, der den Grad der Abneigung gegen Ungleichheit steuert.

Wenn Alpha 0 ist, wird die Wohlfahrtsfunktion auf den klassischen Utilitarismus reduziert, bei dem die Nutzensumme ohne Rücksicht auf die Verteilung maximiert wird. Mit steigendem Alpha wird mehr Gewicht ist gegeben an die am schlechtesten Gestellten, und die Verteilung wird gerechter. Im Grenzfall, wenn Alpha gegen unendlich geht, konvergiert die Alpha-Fairness zum Rawlsschen „Maximin“-Prinzip der Nutzenmaximierung des am schlechtesten Gestellten.

In ihrem CPAIOR 2024-Artikel verwenden die Forscher Alpha-Fairness als Linse, um drei beliebte statistische Paritätsmetriken zu untersuchen:

  • Demografische Parität
  • Ausgeglichene Quoten
  • Prädiktive Ratenparität

Sie simulieren verschiedene Szenarien, in denen ein KI-System begrenzte Ressourcen (z. B. Kredite, Vorstellungsgespräche, Bildungsmöglichkeiten) auf eine Population von Personen mit unterschiedlichen Qualifikationsniveaus und Nutzenfunktionen verteilen muss.

Die Ergebnisse sind überraschend. In vielen Fällen unterscheidet sich die alpha-faire Allokation deutlich von den Lösungen, die die Paritätsmetriken vorschlagen.

Demografische Parität, die gleiche Auswahlquoten für alle Gruppen voraussetzt, berücksichtigt häufig nicht die Tatsache, dass benachteiligte Gruppen durch die Auswahl einen höheren Grenznutzen erzielen. Daher führt sie zu Zuteilungen, die weder effizient noch gerecht sind.

Die ausgeglichenen Quoten, die die Auswahlraten nur unter „qualifizierten“ Personen vergleichen, schneiden etwas besser ab, versagen aber immer noch in Szenarien, in denen falsch-negative Fehler (d. h. qualifizierte Personen abgelehnt werden) sind kostspieliger als Falsch-Positive.

Die prädiktive Ratenparität, die den Anteil der ausgewählten, qualifizierten Personen ausgleicht, ist nur von begrenztem Nutzen und nur anwendbar, wenn die Anzahl der ausgewählten Personen größer ist als die Anzahl der wirklich qualifizierten Kandidaten.

Diese Ergebnisse zeigen die grundlegenden Einschränkungen und blinden Flecken statistischer Paritätsmetriken als primäre Methode zur Bewertung und Durchsetzung algorithmischer Fairness.

Indem diese Maßstäbe die tatsächlichen Wohlfahrtsauswirkungen von KI-Entscheidungen und die unterschiedlichen Auswirkungen auf verschiedene Gruppen ignorieren, können sie zu Systemen führen, die bestehende Ungleichheiten aufrechterhalten oder sogar verschärfen. Zudem mangelt es ihnen an normativer Rechtfertigung und Konsistenz, da unterschiedliche Paritätskriterien in der Praxis oft zu widersprüchlichen Empfehlungen führen.

Im Gegensatz dazu bietet die Optimierung des sozialen Wohls eine prinzipielle und einheitliche Möglichkeit, die Kompromisse zwischen Fairness und Effizienz in KI-Systemen zu meistern. Ziel ist es, die Werturteile und ethischen Annahmen bei der Wahl der sozialen Wohlfahrtsfunktion deutlich zu machen, um Entwicklern und politischen Entscheidungsträgern transparentere und verantwortungsvollere Gespräche über die Verteilungsauswirkungen algorithmischer Entscheidungsfindung zu ermöglichen.

Darüber hinaus haben neuere Arbeiten gezeigt, dass die Optimierung des sozialen Wohlergehens leicht integrierbar in den Standard-Workflow des maschinellen Lernens, entweder als Nachbearbeitungsschritt oder direkt in das Trainingsziel selbst.

Algorithmische Entscheidungsfindung und die Kosten der Fairness

Beispielsweise in der „Algorithmische Entscheidungsfindung und die Kosten der Fairness" Forscher schlagen eine Regularisierungstechnik vor, die der Verlustfunktion jedes Klassifizierungs- oder Regressionsmodells einen sozialen Wohlfahrtsterm hinzufügt, damit das System faire Entscheidungsregeln lernen kann, die sowohl Genauigkeit als auch Wohlfahrt maximieren. Ustun et al. führten eine Nachbearbeitungsmethode ein, die die Ausgabe jedes vorab trainierten Modells verwendet und die wohlfahrtsmaximierenden Entscheidungen unter Berücksichtigung verschiedener Fairnessbeschränkungen findet.

Diese technischen Ergebnisse zeigen, dass die Optimierung des sozialen Wohlergehens ein praktikabler und praktischer Weg ist, um faire und gerechte KI-Systeme zu entwickeln. Entwickler können diese leistungsstarken Optimierungstechniken und Softwarepakete auf der Grundlage einer klaren und berechenbaren Zielfunktion verwenden, die die normativen Überlegungen dieses Rahmens erfasst, um Zuteilungen zu finden, die konkurrierende Kriterien ausgleichen.

Um das volle Potenzial der Optimierung des sozialen Wohlergehens in der Praxis auszuschöpfen, müssen jedoch auch eine Reihe schwieriger Herausforderungen und Einschränkungen bewältigt werden. Eine der größten ist die Schwierigkeit, individuelle Nutzenfunktionen zu ermitteln und zu konstruieren, die die komplexen, mehrdimensionalen Auswirkungen von KI-Entscheidungen auf das menschliche Leben erfassen. Dieser erfordert eine intensive Zusammenarbeit mit den betroffenen Interessengruppen und Fachexperten, um die Kontextfaktoren zu verstehen, die die Vorlieben, Werte und das Wohlbefinden der Menschen prägen.

Es gibt auch theoretische und philosophische Fragen zur zwischenmenschlichen Vergleichbarkeit von Nutzen, Unsicherheit und Dynamik sowie zur Zusammenfassung individueller Nutzen zu einem kollektiven Maß für soziale Wohlfahrt. Verschiedene Funktionen der sozialen Wohlfahrt machen diesbezüglich unterschiedliche Annahmen, und es gibt keinen universellen Konsens darüber, welche in einem bestimmten Kontext am vertretbarsten oder angemessensten ist.

Darüber hinaus besteht wie bei jedem optimierungsbasierten Ansatz das Risiko, dass die Ziele maximiert werden decken möglicherweise nicht alle relevanten ethischen Aspekte vollständig ab, oder sie schief sein durch Verzerrungen und blinde Flecken in den Daten und Modellen, die zur Schätzung der Nutzen verwendet werden. Es ist wichtig, gut durchdachte Prozesse der Stakeholder-Beteiligung, Transparenz und Rechenschaftspflicht zu haben, um sicherzustellen, dass die Wohlfahrtskriterien optimiert werden, um mit den Werten und Prioritäten der betroffenen Gemeinschaften übereinzustimmen.

Trotz dieser Herausforderungen sind die Vorteile der sozialen Wohlfahrtsoptimierung für algorithmische Fairness zu groß, um sie zu ignorieren. Dennoch können KI-Entwickler und politische Entscheidungsträger über die statistische Parität hinausgehen, indem sie auf prinzipielle und flexible Weise die Gerechtigkeit und Effizienz dieses Ansatzes ins Gleichgewicht bringen. Letztendlich wird dies zu einem ganzheitlicheren und konsequentialistischeren Begriff der Fairness führen, der auf menschlichem Wohlergehen und Wohlbefinden basiert.

Klicken Sie hier, um zu erfahren, wie KI Authentizität gewährleisten kann. 

Anwendungsfall Nr. 1: Faire Kreditvergabe

Um die Potenziale und Herausforderungen der Optimierung des sozialen Wohlergehens in der Praxis zu veranschaulichen, betrachten wir den anspruchsvollen Bereich der algorithmischen Kreditvergabe. In den letzten Jahren haben viele Banken und Fintech-Unternehmen maschinelle Lernmodelle eingeführt, um Kreditentscheidungen zu automatisieren und zu beschleunigen. Diese Modelle nutzen riesige Mengen persönlicher und finanzieller Daten, um die Wahrscheinlichkeit eines Zahlungsausfalls eines Kreditantragstellers vorherzusagen, sodass Kreditgeber schnellere und effizientere Kreditentscheidungen treffen können.

Es gibt jedoch zunehmend Hinweise darauf, dass diese algorithmischen Kreditvergabesysteme historische Vorurteile und Ungleichheiten beim Kreditzugang aufrechterhalten und verstärken. Studien haben gezeigt, dass Schwarzen und lateinamerikanischen Kreditnehmern wird häufiger ein Kredit verweigert oder sie mussten höhere Zinsen zahlen als ähnlich qualifizierte weiße Kreditnehmer, selbst wenn traditionelle Risikofaktoren wie Einkommen, Kreditwürdigkeit und Beschäftigungsstatus berücksichtigt wurden.

Eine vielfältige Gruppe von Kreditnehmern

Als Reaktion auf diese Bedenken können einige Kreditgeber auf statistische Paritätsmethoden wie demografische Parität und ausgeglichene Quoten zurückgreifen, um die Verzerrung in ihren KI-Underwriting-Modellen zu verringern. Die Idee besteht darin, die Kreditgenehmigungsraten oder Ausfallraten für alle geschützten Gruppen anzugleichen, sodass die Modelle alle Antragsteller unabhängig von Rasse oder ethnischer Zugehörigkeit gleich behandeln.

Diese paritätsbasierten Ansätze mögen intuitiv erscheinen, doch sie erfassen nicht die Komplexität der Kreditwürdigkeit und die unterschiedlichen Auswirkungen des Kreditzugangs auf das Wohlergehen marginalisierter Gemeinschaften. Immer mehr Forschungsergebnisse deuten darauf hin, dass vereinfachte Vorstellungen von Fairness, die auf der Angleichung von Ergebnissen basieren, kann tatsächlich nach hinten losgehen und genau den Gruppen schaden vom Nutzer definierten sollen beschützen.

Zum Beispiel, ein Artikel aus dem Jahr 2018 stellt fest dass die Durchsetzung von demografischen Paritätsbeschränkungen bei einer nutzenmaximierenden Entscheidungsregel im Allgemeinen die Verwendung sensibler Variablen wie der Rasse sowohl beim Modelltraining als auch bei der Entscheidungsfindung erfordert. Dieser bedeutet, dass Versuche, Paritätsbeschränkungen zu erfüllen, indem während des Trainings nur die Rasse berücksichtigt wird (sogenannte „disparate Lernprozesse“), nicht optimal sind.

Darüber hinaus ignorieren paritätsbasierte Fairnesskriterien die Tatsache, dass die Schäden, die durch die Verweigerung von Krediten entstehen, sind nicht gleichmäßig verteilt in der gesamten Bevölkerung. Für Kreditnehmer mit niedrigem Einkommen und aus Minderheiten, die in der Vergangenheit von herkömmlichen Finanzdienstleistungen ausgeschlossen waren, abgelehnt werden Ein Kredit kann verheerende Folgen haben und sie in einen Teufelskreis aus Armut und Wucherschulden geraten lassen. Wohlhabendere und privilegiertere Antragsteller haben möglicherweise alternative Kapitalquellen und weniger betroffen sein durch eine negative Kreditentscheidung.

Die Optimierung des sozialen Wohls bietet einen alternativen Ansatz, der diese unterschiedlichen Wohlfahrtsansprüche direkt in die Gestaltung fairer Kreditvergabealgorithmen einbezieht. Kreditgeber können Kreditmodelle entwickeln, die das allgemeine Wohlergehen maximieren und gleichzeitig eine gerechtere Verteilung der Chancen gewährleisten, indem sie eine soziale Wohlfahrtsfunktion definieren, die die relativen Kosten und Vorteile des Kreditzugangs für verschiedene Einzelpersonen und Gruppen erfasst.

Stellen Sie sich beispielsweise eine Sozialhilfefunktion vor, bei der das Wohlergehen der am wenigsten begünstigten Antragsteller im Vordergrund steht, während den Nutzengewinnen von Kreditnehmern mit niedrigem Einkommen und aus Minderheiten mehr Gewicht beigemessen wird. Dieser könnte formalisiert werden unter Verwendung einer Alpha-Fairness-Funktion mit einem mäßig hohen Alpha-Wert, was auf eine starke Präferenz für Gerechtigkeit gegenüber Effizienz hinweist.

Sozialhilfe

Unter Berücksichtigung dieses Sozialziels würde eine optimale Kreditvergabepolitik wahrscheinlich darin bestehen, marginalisierten Gruppen mehr Kredite zu gewähren, selbst wenn deren voraussichtliche Rückzahlungsraten im Durchschnitt etwas niedriger ausfallen würden. Dieser Der Grund hierfür liegt darin, dass die Wohlfahrtsgewinne aus der Kreditvergabe an diese unterversorgten Bevölkerungsgruppen (die ihnen beispielsweise den Erwerb eines Eigenheims, die Gründung eines Unternehmens oder eine Ausbildung ermöglichen) aus gesellschaftlicher Sicht das erhöhte Ausfallrisiko überwiegen können.

Natürlich müsste die praktische Umsetzung eines solchen wohlfahrtsmaximierenden Kreditsystems erhebliche Herausforderungen bei der Datenerfassung und Modellierung bewältigen. Kreditgeber müssten detaillierte Daten zu den sozioökonomischen Merkmalen und finanziellen Bedürfnissen der Kreditantragsteller sowie zu den Auswirkungen des Kreditzugangs auf ihr Wohlergehen im Laufe der Zeit sammeln. Sie müssten auch mit den betroffenen Gemeinden zusammenarbeiten, um sicherzustellen, dass die Wohlfahrtskriterien so optimiert werden, dass sie mit ihren Werten und Prioritäten übereinstimmen.

Darüber hinaus kann es wichtige rechtliche und regulatorische Überlegungen geben, wenn es darum geht, geschützte Informationen über bestimmte Klassen (z. B. Rasse, Geschlecht, Alter) für Kreditentscheidungen zu verwenden, selbst wenn das Ziel darin besteht, die Gerechtigkeit zu fördern. Die politischen Entscheidungsträger müssten klare Richtlinien dafür bereitstellen, wie Antidiskriminierungsgesetze im Kontext der Optimierung des sozialen Wohlergehens anzuwenden sind, und sichere Häfen für Kreditgeber schaffen, die diese Techniken auf transparente und nachvollziehbare Weise verwenden.

Trotz der Herausforderungen lohnt es sich. Die Optimierung des sozialen Wohlergehens kann dazu beitragen, die finanzielle Inklusion zu fördern und die rassistische Vermögenslücke zu schließen. Kreditgeber können dadurch ganzheitlichere und wohlfahrtsbewusstere Kreditentscheidungen treffen, den Kapitalfluss in traditionell unterversorgte Gemeinden umlenken und diese wirtschaftlich stärken. Darüber hinaus bietet sie einen prinzipielleren und transparenteren Weg, um die Kompromisse zwischen Fairness und Effizienz bei der Kreditvergabe zu meistern, der sich an den realen Auswirkungen auf das Leben der Kreditnehmer orientiert.

Die Dinge in die richtige Perspektive rücken

Wie das Beispiel der Kreditvergabe zeigt, stellt die Optimierung des sozialen Wohlergehens eine Grenze für algorithmische Fairness dar, die über statistische Parität hinausgeht und zu einem ganzheitlicheren und konsequentialistischeren Begriff der Gerechtigkeit führt, der auf dem Wohlergehen und Wohlbefinden der Menschen basiert.

Dieser Ansatz kann KI-Entwicklern und politischen Entscheidungsträgern dabei helfen, fundiertere und verantwortungsvollere Entscheidungen über die Gestaltung und den Einsatz algorithmischer Systeme in Bereichen zu treffen, in denen viel auf dem Spiel steht. Dies gelingt ihnen, indem sie eine soziale Wohlfahrtsfunktion definieren und maximieren, die wohlüberlegte moralische Urteile über die Verteilung von Nutzen und Lasten widerspiegelt.

Um das volle Potenzial der Optimierung des sozialen Wohlergehens in der Praxis auszuschöpfen, bedarf es jedoch einer Menge interdisziplinärer Arbeit. Informatiker und KI-Ethiker müssen mit Ökonomen, Philosophen, Rechtsexperten und betroffenen Gemeinschaften zusammenarbeiten, um die normativen und technischen Herausforderungen bei der Definition und Berechnung sozialer Wohlfahrtsfunktionen zu bewältigen. Dieser umfasst schwierige Fragen rund um die Messung und Aggregation individueller Nutzen, Unsicherheit und Dynamik sowie den richtigen Kompromiss zwischen Effizienz und Gerechtigkeit in verschiedenen Kontexten.

Darüber hinaus müssen politische Entscheidungsträger und Regulierungsbehörden mehr Orientierung bieten und ein Umfeld schaffen, in dem wohlfahrtsbewusste KI entwickelt und eingesetzt werden kann. Dieser Dies kann eine Aktualisierung bestehender Antidiskriminierungsgesetze und -vorschriften bedeuten, um der Herausforderung der Optimierung des Sozialwesens zu begegnen und neue Governance-Rahmen und Kontrollmechanismen für Transparenz, Verantwortlichkeit und öffentliche Beteiligung an der Gestaltung und Nutzung dieser Systeme zu schaffen.

Letztlich muss der Übergang zur Optimierung des sozialen Wohls in der KI begleitet werden durch umfassendere Bemühungen zur Beseitigung der zugrunde liegenden strukturellen Ungleichheiten und Machtungleichgewichte, die die Entwicklung und den Einfluss der Technologie in der Gesellschaft prägen.

Interventionen zur Förderung algorithmischer Fairness können, egal wie gut sie konzipiert sind, grundlegendere Reformen zur Förderung sozialer und wirtschaftlicher Gerechtigkeit, wie etwa Investitionen in Bildung, Gesundheitsversorgung, Wohnraum und Infrastruktur in marginalisierten Gemeinschaften, nicht ersetzen.

Wie Hooker und seine Kollegen in ihrem CPAIOR 2024-Papier sagen:

„Die Optimierung des sozialen Wohls bietet neue Möglichkeiten, faire und gute algorithmische Systeme zu entwickeln. Es bleibt noch viel zu tun, getan werden diese Ansätze zu entwickeln und umzusetzen, aber wir glauben, dass sie ein Weg in die Zukunft der KI-Ethik sind. Wir können einen ganzheitlicheren und moralisch ernsthafteren Weg finden, maschinelle Lernsysteme zu entwickeln, die der gesamten Gesellschaft dienen, indem wir unsere Vorstellungen von Fairness in der Sprache der Wohlfahrtsökonomie formulieren und uns explizit mit den Verteilungsfolgen unserer Technologie befassen.“

Um eine wirklich faire KI zu erreichen, müssen wir insgesamt dafür sorgen, dass diese Ansätze in realen Szenarien gründlich getestet und verfeinert werden und dabei ein Bekenntnis zu Gerechtigkeit und gesellschaftlichem Wohlergehen verkörpern.

Klicken Sie hier, um alles über Investitionen in künstliche Intelligenz zu erfahren. 

Gaurav begann 2017 mit dem Handel mit Kryptowährungen und hat sich seitdem in den Kryptoraum verliebt. Sein Interesse an allem, was mit Krypto zu tun hat, machte ihn zu einem Autor, der sich auf Kryptowährungen und Blockchain spezialisiert hat. Bald arbeitete er mit Kryptounternehmen und Medienunternehmen zusammen. Er ist auch ein großer Batman-Fan.

Advertiser Disclosure: Securities.io verpflichtet sich zu strengen redaktionellen Standards, um unseren Lesern genaue Rezensionen und Bewertungen zu liefern. Wir erhalten möglicherweise eine Entschädigung, wenn Sie auf Links zu von uns bewerteten Produkten klicken.

ESMA: CFDs sind komplexe Instrumente und bergen aufgrund der Hebelwirkung ein hohes Risiko, schnell Geld zu verlieren. Zwischen 74 und 89 % der Privatanlegerkonten verlieren beim Handel mit CFDs Geld. Sie sollten sich überlegen, ob Sie die Funktionsweise von CFDs verstehen und ob Sie es sich leisten können, das hohe Risiko einzugehen, Ihr Geld zu verlieren.

Haftungsausschluss für Anlageberatung: Die auf dieser Website enthaltenen Informationen dienen Bildungszwecken und stellen keine Anlageberatung dar.

Haftungsausschluss für Handelsrisiken: Der Handel mit Wertpapieren birgt ein sehr hohes Risiko. Handel mit allen Arten von Finanzprodukten, einschließlich Devisen, CFDs, Aktien und Kryptowährungen.

Dieses Risiko ist bei Kryptowährungen höher, da die Märkte dezentralisiert und nicht reguliert sind. Sie sollten sich darüber im Klaren sein, dass Sie möglicherweise einen erheblichen Teil Ihres Portfolios verlieren.

Securities.io ist kein registrierter Broker, Analyst oder Anlageberater.

[flags_en_only]