Stummel Quantencomputing erreicht bedingungslose exponentielle Beschleunigung – Securities.io
Vernetzen Sie sich mit uns

Informatik

Quantencomputing erreicht bedingungslose exponentielle Beschleunigung

mm
Quantencomputing erreicht bedingungslose exponentielle Beschleunigung

Was bisher nur auf dem Papier stand, wird nun in der Praxis unter Beweis gestellt. Das Versprechen des Quantencomputings wurde in der Realität erfüllt, da sie klassische Computer exponentiell und bedingungslos schlagen1.

Zu diesem Zweck nutzte ein Forscherteam unter der Leitung von Daniel Lidar, Professor für Elektro- und Computertechnik an der USC Viterbi School of Engineering, eine intelligente Fehlerkorrektur und die leistungsstarken 127-Qubit-Prozessoren von IBM, die es ihnen ermöglichten,kle ist eine Variante von Simons Problem und zeigt, dass Quantenmaschinen sich nun von klassischen Beschränkungen befreien.

Wie Quantencomputing klassische Grenzen und Rauschen überwindet

Jahrzehntelang war klassisches Computing die Norm. Doch in den letzten Jahren Quantencomputing hat eine bedeutende Entwicklung durchgemacht. 

Quantencomputing ist ein aufstrebender Bereich der Informatik und nutzt die Prinzipien der Quantentheorie (die die Natur und das Verhalten von Materie und Energie auf atomarer und subatomarer Ebene erklärt), um die Rechengeschwindigkeit drastisch zu erhöhen.

Mithilfe der Quantenphysik zielt das Quantencomputing darauf ab, Probleme zu lösen, die für die klassischen Computer, die wir täglich nutzen, zu komplex sind. Tatsächlich kann Quantencomputing bestimmte komplexe Simulationsprobleme lösen, für die selbst ein herkömmlicher Supercomputer Hunderttausende von Jahren benötigen würde.

Eines der Hauptziele des Quantencomputings besteht darin, einen echten algorithmischen Vorteil gegenüber klassischen Computern zu erzielen, um zukünftige Durchbrüche in der Chemie, Kryptographie, Optimierung und anderen Bereichen zu ermöglichen.

Dies erfordert jedoch spezielle Quantencomputer-Hardware und Algorithmen, die Quanteneigenschaften wie Superposition und Verschränkung ausnutzen. Außerdem stellt Rauschen ein großes Problem für Quantencomputer dar.

Darüber hinaus bleibt es eine Herausforderung, auf der heutigen unvollkommenen und verrauschten Quantenhardware einen algorithmischen Vorteil gegenüber klassischen Computern nachzuweisen.

Designer haben begonnen, neue Lösungen wie NISQ-Maschinen zu erforschen, aber diese verrauschten Quantengeräte mittlerer Größenordnung (NISQ) funktionieren auf einer relativ kleiner Maßstab von mehreren hundert Qubits.

Darüber hinaus neigen sie dazu, aufgrund von Dekohärenz (Verlust der Quantenkohärenz, was einen Informationsverlust eines Systems gegenüber seiner Umgebung mit sich bringt) und Steuerungsfehlern eine Leistungsminderung zu erfahren. 

Der Schwerpunkt liegt daher auf der Beschleunigung algorithmischer Quantenberechnungen auf diesen Geräten, was schlicht einen Skalierungsvorteil darstellt. Zwar wurden bereits mehrere derartige Demonstrationen durchgeführt, doch beruhte die Komplexität der dabei gewählten Probleme entweder auf der Schwierigkeit einer eingeschränkten Anzahl klassischer Algorithmen oder auf Annahmen zur Rechenkomplexität.

Kürzlich wurde im Orakelmodell eine algorithmische Quantenbeschleunigung gezeigt, die nicht auf unbewiesenen Annahmen beruht. Dies wurde für einen Bernstein-Vazirani-Algorithmus gezeigt, der auf einem IBM Quantum-Prozessor beobachtet wurde, bei dem unerwünschtes Rauschen durch dynamische Entkopplung (DD) eliminiert wurde, eine gängige Fehlerunterdrückungstechnik für NISQ-Geräte. 

Nun widmet sich das Forschungsteam der University of Southern California dem Problem des Rauschens, indem es eine Variante von Simons Problem implementiert. Dabei handelt es sich um ein bekanntes Beispiel dafür, wie Quantenalgorithmen eine Aufgabe theoretisch exponentiell schneller lösen können als ihre klassischen Gegenstücke – und zwar ohne Bedingungen.

Simons Problem ist ein Vorgänger von Shors Algorithmus, der als Ausgangspunkt für das Gebiet des Quantencomputings dienen kann. 

Es gehört auch zu den ursprünglichen Problemen, deren exponentielle Quantenbeschleunigung nachgewiesen wurde, allerdings im Oracle-Modell. Die Lösung des Problems erfordert auf einem klassischen Computer exponentielle Zeit, auf einem rauschfreien Quantencomputer hingegen nur lineare Zeit, vorausgesetzt, Oracle-Abfragen werden gezählt, ohne die für die Ausführung aufgewendeten Ressourcen zu berücksichtigen.

In diesem Problem umfasst die abelsche verborgene Untergruppe die Identität und eine geheime Zeichenfolge b, wobei das Ziel darin besteht, b zu bestimmen und somit im Grunde ein verborgenes sich wiederholendes Muster in einer mathematischen Funktion zu finden.

Einfacher ausgedrückt ist es wie ein Ratespiel, bei dem die Spieler versuchen, eine geheime Zahl zu erraten, die niemand außer dem Spielleiter, dem sogenannten „Orakel“, kennt.

Die heilige Zahl wird enthüllt, sobald ein Spieler zwei Zahlen errät, deren Antworten vom Orakel identisch sind, und dieser Spieler gewinnt. Im Vergleich zu klassischen Spielern können Quantenspieler dieses Spiel exponentiell schneller gewinnen. 

Erreichen einer bedingungslosen Quantenbeschleunigung

Illustration eines Quantencomputers, der mithilfe des Simon-Problems eine exponentielle Beschleunigung erreicht.

Um mithilfe von Quantencomputern durch die Beschleunigung von Berechnungen wirklich neue Materialien zu entdecken, Codes zu knacken und neue Medikamente zu entwickeln, müssen sie funktionsfähig sein.

Doch wie bereits erwähnt, können Rauschen und Fehler die Leistung beeinträchtigen. Fehler, die bei Berechnungen auf einer Quantenmaschine auftreten, führen dazu, dass Quantencomputer weniger leistungsfähig sind als klassische Computer. So war es bisher.

Lidar von USC hat an der Quantenfehlerkorrektur gearbeitet und einen quantenexponentiellen Skalierungsvorteil gegenüber der Cloud gezeigt.

Dies wurde im Detail in der Abhandlung „Demonstration of Algorithmic Quantum Speedup for an Abelian Hidden Subgroup Problem“ beschrieben, bei der Lidar mit Mitarbeitern der USC und Johns Hopkins zusammenarbeitete.

Es gab bereits Demonstrationen von moderateren Beschleunigungen, beispielsweise einer polynomischen Beschleunigung. Aber eine exponentielle Beschleunigung ist die dramatischste Art von Beschleunigung, die wir von Quantencomputern erwarten.

- Lidar

Der wichtigste Durchbruch für das Quantencomputing liegt laut Lidar darin, dass wir ganze Algorithmen im Vergleich zu herkömmlichen Computern deutlich schneller ausführen können. Wie er jedoch klarstellte, bedeutet das nicht, dass man Dinge hundertmal schneller erledigen kann.

Die Skalierung der Beschleunigung bedeutet jedoch, dass „mit zunehmender Größe eines Problems durch Einbeziehung weiterer Variablen die Lücke zwischen der Quanten- und der klassischen Leistung immer größer wird. Und eine exponentielle Beschleunigung bedeutet, dass sich die Leistungslücke für jede zusätzliche Variable ungefähr verdoppelt“, erklärte Lidar.

Anschließend erklärte er, dass die vom Team gezeigte Beschleunigung „bedingungslos“ sei. Dies bedeutet, dass die Beschleunigung nicht von unbewiesenen Annahmen abhängt. 

Frühere Behauptungen zur Beschleunigung erforderten die Annahme, dass es keinen besseren klassischen Algorithmus gibt, an dem sich der Quantenalgorithmus messen könnte. 

Das Team verwendete hier einen Algorithmus, den sie für den Quantencomputer modifiziert hatten, um eine Variante von „Simons Problem“ zu lösen.

Um nun die exponentielle Beschleunigung zu erreichen, „liegt der Schlüssel darin, jedes Quäntchen Leistung aus der Hardware herauszuholen: durch kürzere Schaltkreise, intelligentere Impulsfolgen und statistische Fehlerminderung“, bemerkt Erstautor Phattharaporn Singkanipa, ein Doktorand an der USC.

Das Team erreichte dies auf vier verschiedene Arten. Die Forscher begrenzten zunächst die Dateneingabe, indem sie die Anzahl der erlaubten Geheimzahlen beschränkten. Technisch gesehen geschieht dies durch die Begrenzung der Anzahl der Einsen in der Binärdarstellung der Geheimzahlen. Dies führte zu weniger quantenlogischen Operationen als sonst nötig, was wiederum die Wahrscheinlichkeit einer Fehlerhäufung verringerte.

Anschließend komprimierten sie die erforderlichen Quantenlogikoperationen durch Transpilierung, einen Prozess, bei dem eine gegebene Eingabe so umgeschrieben wird, dass sie der Topologie eines bestimmten Quantengeräts entspricht.

Anschließend wurde eine Methode namens „dynamische Entkopplung“ angewendet, die den Forschern den größten Einfluss auf die Fähigkeit zur Demonstration einer Quantenbeschleunigung verschaffte. Dabei werden Sequenzen sorgfältig entworfener Impulse angewendet, um das Verhalten eines Qubits von seiner verrauschten Umgebung zu trennen und die Quantenverarbeitung auf Kurs zu halten.

Schließlich wendeten die Forscher eine Messfehlerminderung (Measurement Error Mitigation, MEM) an, um bestimmte Fehler zu finden und zu korrigieren. Ziel dieses Schritts ist es, Fehler zu beheben, die durch die dynamische Entkopplung aufgrund von Unvollkommenheiten bei der Messung des Qubit-Zustands am Ende des Algorithmus entstanden sind.

Den Weg zum Quantennutzen ebnen

Visuelle Darstellung des Weges zur praktischen Anwendung des Quantencomputings.

Da Quantencomputing durch die Nutzung quantenmechanischer Phänomene zur Lösung komplexer Probleme erhebliche Vorteile in Bereichen wie Logistik, Materialwissenschaft, Finanzmodellierung, KI und Cybersicherheit bietet, verzeichnet der Markt erhebliche Beiträge und Wachstum.

Die Community hat außerdem begonnen zu zeigen, wie Quantenprozessoren ihre klassischen Gegenstücke bei gezielten Aufgaben übertreffen können.

„Unser Ergebnis zeigt, dass die heutigen Quantencomputer bereits einen klaren Quantenvorteil bei der Skalierung haben“, sagte Lidar, der auch Professor für Chemie und Physik am USC Dornsife College of Letters, Arts and Science und Mitbegründer von Quantum Elements ist, einem Unternehmen, das den Weg für Quantenanwendungen im großen Maßstab ebnet und Benutzer mit Quantencomputern verbindet.

Vor ein paar Monaten hat das Quantum Elements Team berichtet2 einen Durchbruch erzielt. Ihre neuartige Technik, die logische dynamische Entkopplung, behebt logische Fehler, eine ständige Herausforderung im Quantencomputing.

Das Team demonstrierte, wie dieser spezielle Weg Fehler verhindert, die mit herkömmlichen Fehlerkorrekturcodes nicht behoben werden können, und dabei gleichzeitig einen begrenzten Qubit-Footprint beibehält. 

Sie kombinierten Fehlerkorrektur mit logischer dynamischer Entkopplung, wodurch das Team die Wiedergabetreue verschränkter logischer Qubits deutlich verbessern konnte und praktische Quantenanwendungen der Realität ein großes Stück näher brachte.

Mit den neuesten Forschungsergebnissen, so Lidar, „wird der Quantenleistungsvorteil zunehmend schwieriger zu bestreiten“, da die Leistungstrennung nicht rückgängig gemacht werden kann, weil die nachgewiesene exponentielle Beschleunigung „bedingungslos“ ist.

Die Studie zeigt eine eindeutige algorithmische Quantenbeschleunigung für eine eingeschränkte Hamming-gewichtete (HW) Version des Problems unter Verwendung zweier verschiedener IBM Quantum-Prozessoren. Die Forscher stellten eine erhöhte Quantenbeschleunigung fest, wenn die Berechnung durch DD geschützt ist. Der Einsatz von MEM verstärkte den Skalierungsvorteil zusätzlich.

MEM und dynamische Kopplung wurden zur Fehlerunterdrückung eingesetzt und modifiziert, um das Problem für reale Quantengeräte anzupassen. Sie trugen dazu bei, die Quantenkohärenz aufrechtzuerhalten und die Genauigkeit trotz Hardwarebeschränkungen zu verbessern. 

Mit ihren Experimenten haben die Forscher die NISQ-Algorithmen einer Demonstration einer Quantenbeschleunigung durch Shors Algorithmus ein ganzes Stück näher gebracht und die Schlüsselrolle hervorgehoben, die Techniken zur Unterdrückung von Quantenfehlern bei einer solchen Demonstration spielen.

Der Nachweis einer exponentiellen Beschleunigung der Problemlösung auf realer Quantenhardware sei laut den Forschern „ein wichtiger Meilenstein für das Forschungsfeld“. Ihre Ergebnisse überbrücken nicht nur die Lücke zwischen Theorie und Praxis, sondern unterstreichen auch die wachsenden Fähigkeiten aktueller Quantenprozessoren. Die Studie stellte fest:

„Da sich die Hardware ständig verbessert, ebnet unser Ansatz den Weg für noch leistungsfähigere Demonstrationen des Quantenvorteils in naher Zukunft.“ 

Trotz alledem gibt es keine praktischen Anwendungen der Technologie, die über das Gewinnen von Ratespielen hinausgehen. Dies gilt auch für andere Fortschritte auf diesem Gebiet.

„Wir brauchen einen ChatGPT-Moment für Quanten“, sagte Francesco Ricciuti, ein Mitarbeiter der Risikokapitalfirma Runa Capital, im Dezember gegenüber CNBC, als Google den neuen Chip vorstellte, der seiner Aussage nach einen großen Durchbruch im Quantencomputing markiert.

Googles Quantenchip heißt Willow, verfügt über 105 Qubits und kann Fehler angeblich „exponentiell“ reduzieren, wenn die Anzahl der Qubits erhöht wird. Dies „löst eine zentrale Herausforderung in der Quantenfehlerkorrektur, die das Feld seit fast 30 Jahren verfolgt“, sagte Hartmut Neven, Gründer von Google Quantum AI.

Willow führte in weniger als fünf Minuten eine Berechnung durch, für die die schnellsten Supercomputer von heute 10 Quadrillionen Jahre benötigen würden.

„Sie versuchen, ein für normale Computer sehr anspruchsvolles Problem zu definieren, das sie mit Quantencomputern lösen können. Es ist erstaunlich, dass ihnen das gelingt, aber das heißt nicht, dass es auch wirklich nützlich ist“, sagte Ricciuti damals.

Sogar Google sagte, dass es für seinen RCS-Benchmark „keine bekannten Anwendungen in der realen Welt“ gebe und dass die „wissenschaftlich interessanten Simulationen von Quantensystemen“, die das Unternehmen durchgeführt habe und die zu neuen wissenschaftlichen Entdeckungen geführt hätten, ebenfalls „immer noch in Reichweite klassischer Computer“ lägen.

Der Technologieriese arbeitet jedoch daran, in den Bereich der Algorithmen vorzudringen, die nicht nur außerhalb der Reichweite klassischer Computer liegen, sondern auch „für reale, kommerziell relevante Probleme nützlich“ sind.

Julian Kelly, Hardware-Direktor bei Google Quantum AI, sagte Anfang des Jahres, dass es möglicherweise „noch etwa fünf Jahre bis zu einem echten Durchbruch dauern könnte, also bis zu einer Art praktischer Anwendung, die nur auf einem Quantencomputer gelöst werden kann.“

Auch Nvidia-CEO Jensen Huang glaubt, dass Quantencomputer „außergewöhnliche Auswirkungen haben“ können, merkt jedoch an, dass die Technologie „wahnsinnig kompliziert“ sei.

Laut Lidar „bleibt noch viel Arbeit zu leisten, bevor Quantencomputer ein praktisches Problem der realen Welt lösen können.“ Und das würde Beschleunigungen erfordern, die nicht auf Orakeln beruhen, die die Antwort im Voraus kennen. Darüber hinaus müssten wir die Methoden zur weiteren Reduzierung von Dekohärenz und Rauschen deutlich weiterentwickeln. 

Dennoch haben Forscher mit dem Nachweis exponentieller Beschleunigungen – die bislang nur ein „auf dem Papier stehendes Versprechen“ von Quantencomputern waren – einen wichtigen Meilenstein erreicht, der Grund zum Feiern ist.

In Quantentechnologie investieren

Da Quantencomputer einen großen Fortschritt in der Rechenleistung darstellen, entwickeln zahlreiche Labore, Universitäten, Unternehmen und Regierungsbehörden auf der ganzen Welt Quantencomputertechnologie. 

Wenn es also um Investitionsmöglichkeiten geht, haben wir Amazon (AMZN ), Intel (INTC ) und Microsoft (MSFT ) unter anderem, die den Raum aktiv erkunden. Aber heute werfen wir einen Blick auf das Investitionspotenzial von IBM (IBM ), ein Pionier der Quantenhardware. 

International Business Machines Corporation (IBM )

Im USC-Experiment selbst kamen IBMs 127-Qubit-Prozessoren zum Einsatz. Ende November 2021 stellte IBM diesen Prozessor mit dem Namen Eagle erstmals vor. Er folgte auf den 65-Qubit-Prozessor „Hummingbird“, der 2020 auf den Markt kam, und den 27-Qubit-Prozessor „Falcon“, der ein Jahr zuvor auf den Markt kam.

USC ist eigentlich ein IBM Quantum Innovation Center, während Quantum Elements ein Startup im IBM Quantum Network ist.

Für gezielte Anstrengungen in diesem Bereich verfügt das Unternehmen über eine spezielle Plattform, IBM Quantum, die den Bau des ersten fehlertoleranten Quantencomputers im großen Maßstab zum Ziel hat. Der Technologieriese will bis 100 ein System liefern, das 200 Millionen Gatter auf 2029 logischen Qubits präzise steuert. Mit diesem System wird IBM „den ersten gangbaren Weg zur Ausschöpfung der vollen Leistungsfähigkeit des Quantencomputings ebnen“.

IBM baut den Quantencomputer „Starling“ auf seinem New Yorker Campus. Er soll eine tiefgreifende, fehlerkorrigierte Schaltung unterstützen. Laut Roadmap plant das Unternehmen außerdem einen neuen IBM Quantum Nighthawk-Prozessor, der noch in diesem Jahr auf den Markt kommen soll.

Letzten Monat stellte das Unternehmen ein Quantum System Two in einem Forschungszentrum in Japan bereit. Diese Woche beteiligte sich der Technologieriese an der 26-Millionen-Dollar-Finanzierungsrunde des Startups Qedma. Der CEO hofft, dieses Jahr „mit Zuversicht zu beweisen, dass der Quantenvorteil da ist“. Qedma ist bereits über den Qiskit Functions Catalog von IBM verfügbar, der Quantentechnologie für Endnutzer zugänglich macht.

Das Unternehmen ist zwar führend in der Quantentechnologie, ist aber vor allem für seine Cloud-, KI- und Beratungskompetenz bekannt, die es in den Segmenten Software, Beratung und Infrastruktur bereitstellt.

Betrachtet man die Marktentwicklung von IBM, notieren die Aktien des Unternehmens mit einer Marktkapitalisierung von 268.6 Milliarden US-Dollar zum Zeitpunkt des Schreibens bei 289 US-Dollar, ein Plus von 30.85 % seit Jahresbeginn. Die IBM-Aktie verzeichnete in den letzten drei Jahren einen starken Kursanstieg von 145 %, erreichte neue Höchststände und präsentiert sich als Anbieter von Unternehmenstechnologie der nächsten Generation.

Das Ergebnis je Aktie (EPS) liegt bei 5.85, das KGV (KGV) bei 49.81 und die Eigenkapitalrendite (ROE) bei 21.95 %. Die den Aktionären zur Verfügung stehende Dividendenrendite beträgt attraktive 2.31 %.

(IBM )

Was die finanzielle Entwicklung betrifft, meldete IBM für das erste Quartal 1 einen Umsatzanstieg um 14.5 % auf 2025 Milliarden US-Dollar. Die GAAP-Bruttogewinnmarge lag bei 55.2 % und die Non-GAAP-Bruttogewinnmarge bei 56.6 %. Der Netto-Cashflow aus operativer Tätigkeit belief sich auf 4.4 Milliarden US-Dollar, der freie Cashflow auf 2 Milliarden US-Dollar.

CEO Arvind Krishna führte die über den Erwartungen liegenden Umsätze, Gewinne und freien Cashflow auf die „starke Nachfrage nach generativer KI“ zurück, während IBM weiterhin „optimistisch hinsichtlich der langfristigen Wachstumschancen für die Technologie und die Weltwirtschaft“ sei.

Aktuelle Nachrichten und Entwicklungen zur IBM-Aktie

Fazit

Der Nachweis einer algorithmischen Quantenbeschleunigung, die mit der Größe des Problems skaliert, ist der Schlüssel zum Nachweis des Nutzens von Quantencomputern. Die Demonstration einer unbedingten, exponentiellen Beschleunigung markiert einen Wendepunkt in der Quanteninformatik und beweist, dass heutige Geräte klassische Grenzen überwinden können. 

Diese Errungenschaft der Forscher erweitert den Anwendungsbereich der Quantenbeschleunigung für Orakelalgorithmen erheblich, erweitert die Grenzen empirischer Quantenvorteilsergebnisse und deutet darauf hin, dass praktisch relevante Algorithmen endlich in Reichweite sind.

Insgesamt ist die Entwicklung von Quantencomputern hin zu praktischen, alltäglichen Anwendungen noch nicht abgeschlossen, und es werden fortlaufende Verbesserungen durchgeführt, um die volle Leistungsfähigkeit der Quantentechnologie freizusetzen!

Klicken Sie hier, um eine Liste der führenden Quantencomputerunternehmen anzuzeigen.

Zitierte Studien:

1. Singkanipa, P.; Kasatkin, V.; Zhou, Z.; Quiroz, G.; Lidar, DA Demonstration der algorithmischen Quantenbeschleunigung für ein abelsches verstecktes Untergruppenproblem. Physik. Rev. X 2025, 15 (2), 021082. https://doi.org/10.1103/PhysRevX.15.021082
2. Vezvaee, A.; Tripathi, V.; Morford-Oberst, M.; Butt, F.; Kasatkin, V.; Lidar, DA Demonstration hochpräziser verschränkter logischer Qubits mithilfe von Transmons. arXiv 2025, arXiv:2503.14472. https://doi.org/10.48550/arXiv.2503.14472

Gaurav begann 2017 mit dem Handel mit Kryptowährungen und hat sich seitdem in den Kryptoraum verliebt. Sein Interesse an allem, was mit Krypto zu tun hat, machte ihn zu einem Autor, der sich auf Kryptowährungen und Blockchain spezialisiert hat. Bald arbeitete er mit Kryptounternehmen und Medienunternehmen zusammen. Er ist auch ein großer Batman-Fan.

Advertiser Disclosure: Securities.io verpflichtet sich zu strengen redaktionellen Standards, um unseren Lesern genaue Rezensionen und Bewertungen zu liefern. Wir erhalten möglicherweise eine Entschädigung, wenn Sie auf Links zu von uns bewerteten Produkten klicken.

ESMA: CFDs sind komplexe Instrumente und bergen aufgrund der Hebelwirkung ein hohes Risiko, schnell Geld zu verlieren. Zwischen 74 und 89 % der Privatanlegerkonten verlieren beim Handel mit CFDs Geld. Sie sollten sich überlegen, ob Sie die Funktionsweise von CFDs verstehen und ob Sie es sich leisten können, das hohe Risiko einzugehen, Ihr Geld zu verlieren.

Haftungsausschluss für Anlageberatung: Die auf dieser Website enthaltenen Informationen dienen Bildungszwecken und stellen keine Anlageberatung dar.

Haftungsausschluss für Handelsrisiken: Der Handel mit Wertpapieren birgt ein sehr hohes Risiko. Handel mit allen Arten von Finanzprodukten, einschließlich Devisen, CFDs, Aktien und Kryptowährungen.

Dieses Risiko ist bei Kryptowährungen höher, da die Märkte dezentralisiert und nicht reguliert sind. Sie sollten sich darüber im Klaren sein, dass Sie möglicherweise einen erheblichen Teil Ihres Portfolios verlieren.

Securities.io ist kein registrierter Broker, Analyst oder Anlageberater.