Stummel Künstliche allgemeine Intelligenz: Eine Geschichte über den vorsichtigen Aufbau von Fähigkeiten – Securities.io
Vernetzen Sie sich mit uns

Künstliche Intelligenz

Künstliche allgemeine Intelligenz: Eine Geschichte über den Aufbau von Fähigkeiten mit Vorsicht

mm

Securities.io hält strenge redaktionelle Standards ein und erhält möglicherweise eine Vergütung für geprüfte Links. Wir sind kein registrierter Anlageberater und dies stellt keine Anlageberatung dar. Bitte beachten Sie unsere Affiliate-Offenlegung.

Künstliche allgemeine Intelligenz

Wir leben in der Ära der Künstlichen Intelligenz, wobei die Größe des globalen KI-Marktes bereits überschritten ist US $ 240 Milliarden Schätzungen zufolge wird er bis 730 auf über 2030 Milliarden US-Dollar steigen, bei einer jährlichen Wachstumsrate von über 17 %. 

Bei all dem Rummel um KI hat ein Paradigma, das die Aufmerksamkeit aller auf sich gezogen hat, die AGI (Artificial General Intelligence) auf sich gezogen. 

Aber was ist das? Warum ist es so ein Thema, und warum ist die Wissenschafts- und Technologie-Community so daran interessiert, jede Wendung zu beobachten? Um es besser zu verstehen, gehen wir tiefer in die Materie ein. 

Bevor wir uns jedoch direkt mit künstlicher allgemeiner Intelligenz befassen, wollen wir herausfinden, was allgemeine Intelligenz bedeutet.

Die Konturen der allgemeinen Intelligenz festlegen

Allgemeine Intelligenz impliziert die Fähigkeit, eine Reihe von Zielen zu erreichen und verschiedene Aufgaben in unterschiedlichen Kontexten und Umgebungen auszuführen. Systeme, die „allgemein intelligent“ sind, müssen: 

  • Gehen Sie mit Problemen und Situationen um, die sich wesentlich von den Erwartungen unterscheiden
  • Das gewonnene Wissen verallgemeinern können, um es von einem Problemkontext auf andere übertragen zu können. 

Die wissenschaftliche Gemeinschaft geht auch davon aus, dass verschiedene allgemeine Intelligenzen in der realen Welt einige gemeinsame Eigenschaften aufweisen, ohne sich wirklich sicher zu sein, welche Eigenschaften diese Eigenschaften haben könnten. 

Die Prämisse der künstlichen allgemeinen Intelligenz geht von diesen Merkmalen der allgemeinen Intelligenz aus und versucht, über sie hinauszudenken. 

Die Kern-AGI-Hypothese

Die Hypothese erhielt ihre erste offizielle Formulierung in a Krepppapier mit dem Titel „Artificial General Intelligence: Concept, State of the Art, and Future Prospects“, veröffentlicht im Journal of Artificial General Intelligence von Ben Goertzel. Die Hypothese lautete wie folgt: 

„Die Schaffung und Untersuchung synthetischer Intelligenz mit einem ausreichend breiten (z. B. auf menschlicher Ebene) Anwendungsbereich und einer starken Generalisierungsfähigkeit unterscheidet sich im Grunde qualitativ von der Schaffung und Untersuchung synthetischer Intelligenz mit einem deutlich engeren Anwendungsbereich und einer schwächeren Generalisierungsfähigkeit.“

Um seine Merkmale zu konkretisieren, wird AGI in seinem Umfang ausreichend breit sein und über eine starke Verallgemeinerungsfähigkeit verfügen. 

In einer populistischeren Art, wissenschaftliche Dinge zu schreiben und zu erklären, ist AGI ein Strom theoretischer KI-Forschung, der darauf abzielt, KI mit einer menschlichen kognitiven Funktion zu entwickeln, zu der auch die Fähigkeit zum Selbstlernen gehört. 

Viele Forscher glauben, dass es praktisch nicht möglich ist, KI auf ein „menschliches Niveau kognitiver Funktionen“ zu heben. Allerdings wird es im Vergleich zu den schwachen oder engeren KIs, die wir bisher gesehen haben, mit Sicherheit als stärkerer KI-Modus angesehen. 

Künstliche Allgemeine Intelligenz als „starke KI“

Laut IBM„Starke künstliche Intelligenz (KI), auch bekannt als künstliche allgemeine Intelligenz (AGI) oder allgemeine KI, ist eine theoretische Form der KI, die zur Beschreibung einer bestimmten Denkweise der KI-Entwicklung verwendet wird.“ Wenn Forscher eine starke KI entwickeln können, bräuchte die Maschine eine Intelligenz, die der des Menschen ebenbürtig ist; es hätte ein selbstbewusstes Bewusstsein, das Probleme lösen, lernen und für die Zukunft planen kann.“

Eine starke KI würde auf der kognitiven Ebene im Wesentlichen wie ein Mensch funktionieren. Es beginnt wie ein Kind, lernt durch Eingaben und Erfahrungen und macht Fortschritte in seinen Fähigkeiten, um schließlich zu einer Maschine zu werden, die so intelligent ist, dass sie nicht vom menschlichen Gehirn zu unterscheiden ist. 

Funktionell würde sich eine starke KI von einer schmalen oder schwachen KI in ihrer Fähigkeit unterscheiden, die Anzahl und Vielfalt der Aufgaben zu bewältigen. 

Um diese Unterscheidung ins rechte Licht zu rücken: Schwache oder eingeschränkte KI konzentriert sich auf die Ausführung einer sich wiederholenden Aufgabe, während starke KI verschiedene Aufgaben gleichzeitig ausführen kann. Noch wichtiger ist, dass schwache oder enge KI immer von menschlichen Eingaben abhängt, AGI oder starke KI jedoch nach Abschluss der anfänglichen Wachstums- und Lernphasen nicht mehr auf Anweisungen von Menschen angewiesen sind. Es wird ein Bewusstsein erzeugen, das dem Menschen ähnelt, anstatt es zu simulieren. 

Angesichts all dieser Erkenntnisse, die als theoretische Grundlage für AGI dienen, stellt sich die Frage, wie man damit umgehen soll, insbesondere wenn die Forscher sagen, dass ein idealer AGI niemals erreicht werden kann.  Es gibt vier allgemeine Ansätze für AGI: Symbolisch, Emergentistisch, Hybrid und Universalistisch. 

Der symbolische Ansatz für AGI: Dieser Ansatz geht davon aus, dass der Geist in erster Linie dazu dient, Symbole zu manipulieren, die verschiedene Aspekte der Welt oder sich selbst darstellen. Es geht außerdem davon aus, dass ein physisches Symbolsystem über die Fähigkeit verfügt, symbolische Einheiten einzugeben, auszugeben, zu speichern und zu ändern und daher geeignete ausführbare Aktionen veranlassen kann, um das Endziel zu erreichen. 

Daher konzentriert sich die symbolische kognitive Architektur auf das Konzept eines „Arbeitsgedächtnisses“, das bei Bedarf auf das Langzeitgedächtnis zurückgreift und eine zentrale Kontrolle über Wahrnehmung, Kognition und Handlung nutzt. 

Der Emergentist-Ansatz für AGI: Der emergentistische AGI-Ansatz geht davon aus, dass die Verarbeitungsfähigkeiten abstrakter Symbole aus der subsymbolischen Dynamik niedrigerer Ebenen hervorgehen würden. Einfacher ausgedrückt geht es bei diesem AGI-Ansatz darum, das menschliche Gehirn als eine Reihe einfacher Elemente zu betrachten, die sich bei Bedarf komplex selbst organisieren können. 

Der hybride Ansatz für AGI: Die Leitphilosophie des hybriden AGI-Ansatzes ist das Phänomen „Das Ganze ist mehr als die Summe der Teile“. Es möchte sowohl auf die Stärken als auch auf die Schwächen des symbolischen und des emergentistischen Ansatzes durch eine integrative, hybride Architektur reagieren, die Subsysteme kombiniert, die nach den beiden Paradigmen arbeiten. 

Die Kombination kann die eines symbolischen Subsystems mit einem großen subsymbolischen System oder einer Population kleiner Agenten sein, von denen jeder sowohl symbolischer als auch subsymbolischer Natur ist. 

Der universalistische Ansatz für AGI: Der universalistische Ansatz für AGI beginnt mit Algorithmen, die in der Lage sind, immens leistungsfähige allgemeine Intelligenz zu liefern, wenn sie mit enormer und unrealistisch immenser Rechenleistung ausgestattet werden. Das Ziel besteht darin, sie letztendlich zu verkleinern, indem man sie dazu bringt, sie mit realisierbaren Rechenressourcen an die Arbeit anzupassen. 

Während sich alle diese Ansätze weiterentwickelt haben und die Forschung rund um das Paradigma stetig voranschreitet, haben viele Technologieunternehmen praktische Lösungen rund um AGI entwickelt. Das bekannteste davon ist Open AI.

Führende Unternehmen, die an AGI arbeiten

1. AI öffnen

OpenAI, vor allem für seine Lösung ChatGPT bekannt, hat eine AGI-zentrierte Vision. In einem Blog-Post  Das Unternehmen startete seine Pläne am 24. Februar 2023 ohne jegliche Zweideutigkeit. Es erklärte, seine Mission sei es, „sicherzustellen, dass künstliche allgemeine Intelligenz – KI-Systeme, die im Allgemeinen intelligenter sind als Menschen – der gesamten Menschheit zugutekommt“. 

Das Unternehmen erklärte, dass es mit der Annäherung seiner Systeme an AGI „bei der Erstellung und Bereitstellung“ seiner Modelle zunehmend vorsichtiger werde. Als Beispiele nannte es den Einsatz von InstructGPT und ChatGPT. 

Was ist ChatGPT?

ChatGPT wurde von Open AI entwickelt und am 30. November 2022 eingeführt. Im Kern ist ChatGPT ein KI-gesteuertes Tool zur Verarbeitung natürlicher Sprache, das menschenähnliche Gespräche mit dem Chatbot ermöglicht. Es kann nicht nur Fragen beantworten, sondern auch beim Verfassen von E-Mails, Aufsätzen, Codes und mehr helfen. 

Klicken Sie hier für die Liste der fünf besten ChatGPT-Erweiterungen.

Was ist Instruct GPT?

Instruct GPT, ein von Open AI geprägter Begriff, ist ein fortschrittliches KI-gesteuertes Sprachmodell, das Anweisungen in einer Textaufforderung befolgen kann. Seine erweiterten Fähigkeiten zum Verstehen textbasierter Anforderungen und zum entsprechenden Generieren textbasierter Antworten machen es zu einem leistungsstarken Werkzeug für eine Vielzahl service- und inhaltsbasierter Zwecke. 

Öffnen Sie AI Chat GPT in Numbers

Nach Angaben der US-Organisation neueste verfügbare Nummern, ChatGPT von OpenAI hat mehr als 100 Millionen wöchentlich aktive Mitglieder. Am 12. Oktober 2023 veröffentlichte Berichte besagten, dass OpenAI einen Umsatz von 1.3 Milliarden US-Dollar pro Jahr erwirtschaftete, also mehr als 100 Millionen US-Dollar pro Monat, 30 % mehr als im Sommer 2023. 

Offene organisatorische Umstrukturierung der KI

OpenAI war jedoch zuletzt wegen seiner organisatorischen Umstrukturierung in aller Munde, die weltweit für Aufsehen in der Tech- und Tech-Investment-Community sorgte. Der Vorstand hatte beschlossen, seinen CEO Sam Altman zu verdrängen, weil er in seiner Kommunikation nicht „durchweg offen“ war. Doch fünf Tage nach seiner plötzlichen Entlassung beschloss der Vorstand, Altman an seinen alten Arbeitsplatz zurückzuholen. 

Sam Altman zurück als CEO von OpenAI

Berichten zufolge hatte jeder einzelne Mitarbeiter von Open AI einen Brief mitunterzeichnet, in dem er erklärte, dass er seine Kündigung in Erwägung ziehen würde, wenn Altman nicht wieder in seine frühere Position zurückkehren würde. Eines der Vorstandsmitglieder, das für die Entlassung von Sam Altman verantwortlich war, der Chefwissenschaftler von Open AI, Ilya Sutskever, schrieb auf seinem X-Handle: Folgende: „Ich bedauere meine Beteiligung an den Vorstandsaktionen zutiefst. Ich hatte nie die Absicht, OpenAI zu schaden. Ich liebe alles, was wir gemeinsam aufgebaut haben, und werde alles tun, um das Unternehmen wieder zu vereinen.“

Mit der Rückkehr von Herrn Altman als CEO von Open AI scheint die Kontroverse der Vergangenheit anzugehören. 

Während OpenAI im AGI-Bereich am meisten Anklang und Aufmerksamkeit erregt hat, gibt es auch andere Akteure schon seit geraumer Zeit. DeepMind ist ein solcher Player, der seit 2010 im Einsatz ist.

2. DeepMind

Die Möglichkeit generativer KI | Inside Google DeepMind – Paiges Geschichte

DeepMinds Das offizielle langfristige Ziel besteht darin, „Intelligenzprobleme zu lösen und allgemeinere und leistungsfähigere Problemlösungssysteme zu entwickeln, die als künstliche allgemeine Intelligenz bezeichnet werden.“ Das Unternehmen schloss sich 2014 mit Google zusammen. 

Das Funktionsprinzip von DeepMind bestand schon immer darin, die Wissenschaft zum Nutzen der Menschheit voranzutreiben. Daher möchte es künstliche Intelligenz nutzen, um gesellschaftliche Bedürfnisse und Erwartungen zu erfüllen. 

Zu den bisherigen Erfolgen von DeepMind kann man zählen, dass seine Programme gelernt haben, Augenkrankheiten genauso effektiv zu diagnostizieren wie die besten Ärzte der Welt, dass sie 30 % der Energie einsparen, die zur Kühlung von Rechenzentren benötigt wird, dass sie die komplexen dreidimensionalen Formen von Proteinen vorhersagen können und dass sie damit den Fortschritt der Pharmaindustrie revolutionieren. 

Nach Verfügbarkeit frustrierten, DeepMind hatte am 1. Februar 2011 nur eine Finanzierungsrunde eingesammelt, bevor es mit Google zusammenarbeitete. Die Investoren waren Founders Fund und Horizons Ventures. Die Finanzierung hat sich gelohnt US $ 50 Mio. angeblich. 

3. Geschickt

Ein weiterer aufstrebender Akteur im Bereich AGI ist Adept. Im März 2023 sammelte das kaum ein Jahr alte Startup mit gerade einmal 25 Mitarbeitern 350 Millionen US-Dollar Risikokapital ein. Es gesammelte Mittel durch die Demonstration einer rudimentären Version eines digitalen Assistenten. 

Adept hat untersucht, wie Menschen Computer nutzen, um ein KI-Modell zu erstellen, das einen Textbefehl in eine Reihe von Aktionen umwandeln kann. Die Finanzierungsrunde wurde mit einer Post-Money-Bewertung von 1 Milliarde US-Dollar abgeschlossen. 

Laut David Luan, dem Mitbegründer von Adept, möchte das Unternehmen dasselbe Computermodell entwickeln, das der Art und Weise folgt, wie ein Synthesizer es einem Musiker ermöglicht, die Klänge vieler Instrumente zu spielen, ohne lernen zu müssen, wie man das Originalinstrument spielt. 

AGI: Der Weg in die Zukunft

Die Meinungen über das Potenzial von AGI gehen auseinander. Manche glauben, dass AGI gefährliche Folgen für die Menschheit haben könnte, während andere glauben, dass AGI nicht das erreichen kann, was wir uns vorstellen. 

Laut Diego Klabjan, Professor an der Northwestern University und Gründungsdirektor des Master of Science in Analytics-Programms der Schule:

Das menschliche Gehirn besteht aus Milliarden von Neuronen, die auf faszinierende und komplexe Weise miteinander verbunden sind. Der aktuelle Stand der Technik basiert lediglich auf einfachen Verbindungen, die einfachen Mustern folgen. Ich glaube nicht, dass wir mit der aktuellen Hard- und Softwaretechnologie von einigen Millionen Neuronen auf Milliarden von Neuronen kommen werden.

Das Future of Humanity Institute der Universität Oxford führte eine Umfrage unter 352 Forschern im Bereich maschinelles Lernen zum Evolutionspotenzial der KI durch. Die durchschnittliche Anzahl der Befragten machte bemerkenswerte Prognosen für die einzelnen Jahre. 

  • Bis 2026 könnten Maschinen in der Lage sein, Schulaufsätze zu schreiben
  • Bis 2027: Selbstfahrende Lkw könnten Fahrer überflüssig machen
  • Bis 2031: KI könnte im Einzelhandel den Menschen übertreffen
  • Bis 2049: KI könnte der nächste Stephen King werden
  • Bis 2137: Alle menschlichen Tätigkeiten könnten automatisiert sein

Es ist viel zu früh, um vorherzusagen, wohin uns die KI letztendlich führen wird. Aber wie alle Technologien kann sie zum Guten oder Schlechten genutzt werden. 

Sam Altman, CEO von Open AI, glaubt, dass „alle Bemühungen zum Aufbau von AGI und die öffentliche Konsultation bei wichtigen Entscheidungen einer genauen Prüfung unterzogen werden sollten.“ Er geht sogar noch weiter und sagt:

„Die Welt könnte sich völlig von der heutigen unterscheiden, und die Risiken könnten außergewöhnlich sein. Eine falsch ausgerichtete superintelligente AGI könnte der Welt schweren Schaden zufügen; Ein autokratisches Regime mit entscheidender Führung durch die Superintelligenz könnte das auch tun.“

Dennoch gibt es AGI-Lösungsanbieter wie DeepMind und andere, die glauben, dass AGI der Vorbote vieler wissenschaftlicher Durchbrüche sein und reale Veränderungen zum Besseren bewirken wird. AGI wird auf jeden Fall einen erheblichen Einfluss auf unsere Bemühungen in den Bereichen Forschung, Technik, Wissenschaft und Sicherheit für die Welt haben. Ein großer Teil des Erfolgs wird sicherlich davon abhängen, wie vorsichtig und kalibriert das menschliche Handeln ist.  

Klicken Sie hier, um alles über Investitionen in künstliche Intelligenz zu erfahren.

Gaurav begann 2017 mit dem Handel mit Kryptowährungen und hat sich seitdem in den Kryptoraum verliebt. Sein Interesse an allem, was mit Krypto zu tun hat, machte ihn zu einem Autor, der sich auf Kryptowährungen und Blockchain spezialisiert hat. Bald arbeitete er mit Kryptounternehmen und Medienunternehmen zusammen. Er ist auch ein großer Batman-Fan.

Advertiser Disclosure: Securities.io verpflichtet sich zu strengen redaktionellen Standards, um unseren Lesern genaue Rezensionen und Bewertungen zu liefern. Wir erhalten möglicherweise eine Entschädigung, wenn Sie auf Links zu von uns bewerteten Produkten klicken.

ESMA: CFDs sind komplexe Instrumente und bergen aufgrund der Hebelwirkung ein hohes Risiko, schnell Geld zu verlieren. Zwischen 74 und 89 % der Privatanlegerkonten verlieren beim Handel mit CFDs Geld. Sie sollten sich überlegen, ob Sie die Funktionsweise von CFDs verstehen und ob Sie es sich leisten können, das hohe Risiko einzugehen, Ihr Geld zu verlieren.

Haftungsausschluss für Anlageberatung: Die auf dieser Website enthaltenen Informationen dienen Bildungszwecken und stellen keine Anlageberatung dar.

Haftungsausschluss für Handelsrisiken: Der Handel mit Wertpapieren birgt ein sehr hohes Risiko. Handel mit allen Arten von Finanzprodukten, einschließlich Devisen, CFDs, Aktien und Kryptowährungen.

Dieses Risiko ist bei Kryptowährungen höher, da die Märkte dezentralisiert und nicht reguliert sind. Sie sollten sich darüber im Klaren sein, dass Sie möglicherweise einen erheblichen Teil Ihres Portfolios verlieren.

Securities.io ist kein registrierter Broker, Analyst oder Anlageberater.