Τεχνητή νοημοσύνη
Η Τεχνητή Νοημοσύνη Συναντά την Αποδοτικότητα: Ένας Νέος Πυρήνας Μικροϋπολογιστή Μειώνει την Κατανάλωση Ενέργειας των LLM κατά 50%

Η συνεχής άνθηση της τεχνητής νοημοσύνης (AI) οδηγεί σε μια αύξηση των κέντρων δεδομένων, που με τη σειρά του οδηγεί σε μια τεράστια ζήτηση για ενέργεια για να λειτουργήσουν και να ψύξουν τους серверς μέσα σε αυτά.
Ενώ υπάρχουν πάνω από 8.000 κέντρα δεδομένων σε όλο τον κόσμο, τα περισσότερα από τα οποία βρίσκονται στις Ηνωμένες Πολιτείες, αυτό το νούμερο θα αυξηθεί σημαντικά τα επόμενα χρόνια.
Σύμφωνα με τις εκτιμήσεις της Boston Consulting Group, η ζήτηση για κέντρα δεδομένων θα αυξηθεί κατά 15% έως 20% κάθε χρόνο μέχρι το 2030. Σε αυτό το σημείο, η εταιρεία αναμένει ότι θα αποτελούν το 16% της συνολικής κατανάλωσης ενέργειας στις Ηνωμένες Πολιτείες, σε σύγκριση με το 2,5% πριν από την κυκλοφορία του ChatGPT της OpenAI το 2022.
Εν τω μεταξύ, η ειδική έκθεση Ενέργειας και Τεχνητής Νοημοσύνης από το Διεθνές Οργανισμό Ενέργειας (IEA) που κυκλοφόρησε φέτος, αναμένει ότι η ζήτηση για ηλεκτρική ενέργεια από κέντρα δεδομένων σε όλο τον κόσμο θα διπλασιαστεί τουλάχιστον μέχρι το τέλος της δεκαετίας σε περίπου 945 TWh. Αυτό είναι σχεδόν ισοδύναμο με ότι καταναλώνει η Ιαπωνία σήμερα.
Ο αυτονομικός διακυβερνητικός οργανισμός με έδρα το Παρίσι αναφέρει ότι η τεχνητή νοημοσύνη είναι ο μεγαλύτερος οδηγός πίσω από αυτήν την αύξηση, με την ζήτηση ηλεκτρικής ενέργειας από κέντρα δεδομένων που έχουν βελτιστοποιηθεί για τεχνητή νοημοσύνη να προβλέπεται ότι θα τετραπλασιαστεί μέχρι το 2030.
Στις Ηνωμένες Πολιτείες, συγκεκριμένα, η κατανάλωση ενέργειας από κέντρα δεδομένων είναι ήδη σε πορεία να αντιπροσωπεύει περίπου το μισό της αύξησης της ζήτησης ηλεκτρικής ενέργειας μεταξύ τώρα και 2030. Ωθούμενη από τη χρήση τεχνητής νοημοσύνης, η οικονομία των Ηνωμένων Πολιτειών, σύμφωνα με την έκθεση, θα καταναλώνει περισσότερη ηλεκτρική ενέργεια για την επεξεργασία δεδομένων σε εκείνο το σημείο παρά για την παραγωγή όλων των ενεργοβόρων προϊόντων μαζί.
Αυτή η ακαταμάχητη πείνα για ενέργεια παρουσιάζει ένα τεράστιο πρόβλημα στην πρόοδο και υιοθέτηση της τεχνητής νοημοσύνης. Ωστόσο, η ασημένια γραμμή είναι ο αυξανόμενος αριθμός ερευνητών και εταιρειών που εργάζονται για τη μείωση της κατανάλωσης ενέργειας της τεχνητής νοημοσύνης και την καθιστά πιο ενεργειακά αποδοτική.
Τι είναι ενδιαφέρον σχετικά με αυτές τις προσπάθειες είναι ότι πολλές από αυτές χρησιμοποιούν τεχνητή νοημοσύνη για να αντιμετωπίσουν τις δικές τους προκλήσεις ενέργειας.
Μόλις αυτό το μήνα, μια ομάδα ερευνητών επίδειξε einen νέο πυρήνα που χρησιμοποιεί τεχνητή νοημοσύνη για να μειώσει την ενεργειακή αποτυπωμένη των μεγάλων γλωσσικών μοντέλων (LLM) κατά 50%, σηματοδοτώντας μια σημαντική εξέλιξη στην καθιστά τους LLM πιο αποδοτικά και βιώσιμους για να τρέξουν.
Νέος Πυρήνας Εκμεταλλεύεται Τεχνητή Νοημοσύνη για Μείωση Κατανάλωσης Ενέργειας LLM

Ερευνητές από το Oregon State University College of Engineering ανέπτυξαν τον νέο αποδοτικό πυρήνα τεχνητής νοημοσύνης για να λύσουν το τεράστιο πρόβλημα κατανάλωσης ηλεκτρικής ενέργειας των εφαρμογών LLM AI όπως το GPT-4 της OpenAI και το Gemini της Google.
Ένας τύπος μοντέλου μηχανικής μάθησης (ML), ένα μεγάλο γλωσσικό μοντέλο (LLM) προ-εκπαιδεύεται σε τεράστιες ποσότητες δεδομένων για να εκτελέσει εργασίες επεξεργασίας φυσικής γλώσσας (NLP) όπως η γεννήτρια κειμένου, η σύνοψη, η απλοποίηση, η λογική γλώσσας, η μετάφραση γλώσσας και πολλά άλλα.
Τα πιο δημοφιλή και ευρέως χρησιμοποιούμενα chatbots σήμερα περιλαμβάνουν το GPT-4o, o3 και o1 της OpenAI, το Gemini και το Gemma της Google, το Llama της Meta, το R1 και το V3 της DeepSeek, το Claude της Anthropic, το Nova της Amazon, το Phi της Microsoft και το Grok της xAI.
Τους τελευταίους χρόνια, τα LLM έχουν μεταμορφώσει πλήρως το πεδίο της τεχνητής νοημοσύνης, επιτρέποντας στα μηχανήματα να κατανοούν και να γεννάνε κείμενο με μεγαλύτερη ακρίβεια. Ωστόσο, αυτή η εξέλιξη των LLM έχει οδηγήσει σε μια εκθετική αύξηση του μεγέθους τους.
Το μέγεθος ενός LLM, το οποίο μετράται από τον αριθμό των παραμέτρων του, είναι ο κύριος οδηγός της κατανάλωσής του ενέργειας. Αυτό σημαίνει ότι το μεγαλύτερο το μοντέλο, το μεγαλύτερο η ανάγκη για υπολογιστική δύναμη για εκπαίδευση και συλλογή.
Για παράδειγμα, το ChatGPT-1 είχε λιγότερο από 120 εκατομμύρια παραμέτρους, που αυξήθηκαν σε 175 δισεκατομμύρια παραμέτρους με το GPT-3 και στη συνέχεια σε περίπου 1,8 τρισεκατομμύρια παραμέτρους με το GPT-4.
Αυτή η τεράστια αύξηση του μεγέθους και της ικανότητας των LLM σημαίνει ότι η κατανάλωση ενέργειας τους αυξάνεται επίσης σε μια беспрецедентνη κλίμακα. Εκτός από το μέγεθος του μοντέλου, παράγοντες όπως ο τύπος του υλικού που χρησιμοποιείται για την εκπαίδευση αυτών των LLM, η διάρκεια της διαδικασίας εκπαίδευσης, η υποδομή, δηλαδή τα κέντρα δεδομένων, η επεξεργασία δεδομένων, η βελτιστοποίηση του μοντέλου και η απόδοση του αλγορίθμου επηρεάζουν την κατανάλωση ενέργειας των LLM.
Επομένως, ο νέος πυρήνας από τους ερευνητές του OSU. Σύμφωνα με τον Tejasvi Anand, αναπληρωτή καθηγητή ηλεκτρολογικού μηχανικού στο OSU που διευθύνει επίσης το Εργαστήριο Μικτών Σημάτων και Συστημάτων στο Πανεπιστήμιο:
«Το πρόβλημα είναι ότι η ενέργεια που απαιτείται για τη μετάδοση ενός seul bit δεν μειώνεται με το ίδιο ρυθμό με την αύξηση της ζήτησης δεδομένων. Αυτό είναι που κάνει τα κέντρα δεδομένων να χρησιμοποιούν τόσο πολύ ενέργεια.»
Για να υπερβούν αυτό το πρόβλημα, η ομάδα σχεδίασε και ανέπτυξε einen νέο πυρήνα που καταναλώνει μόνο το μισό της ενέργειας σε σύγκριση με τις συμβατικές σχεδιαστικές.
Ο Anand και ο διδακτορικός φοιτητής Ramin Javad παρουσίασαν αυτή τη νέα τεχνολογία στη Διάσκεψη IEEE Custom Integrated Circuits (CIC), η οποία πραγματοποιήθηκε στη Βοστώνη τον προηγούμενο μήνα. Η διάσκεψη, η οποία φιλοξενεί φόρουμ, πάνελ, εκθέσεις και προφορικές παρουσιάσεις, είναι αφιερωμένη στην ανάπτυξη του IC, το οποίο χρησιμεύει ως το κτίριο του σύγχρονου ηλεκτρονικού συστήματος, παρέχοντας λειτουργικότητα και επεξεργασία σε ένα συμπαγές και αποδοτικό πακέτο.
Η τελευταία τεχνολογία κατασκευάστηκε με την υποστήριξη του Κέντρου για την Πανταχού Παρουσία Συνδεσιμότητα (CUbiC), του Semiconductor Research Corporation (SRC) και του Defense Advanced Research Projects Agency (DARPA). Επίσης, έλαβε τον Javadi το Βραβείο Καλύτερης Φοιτητικής Εργασίας στη διάσκεψη.
Για τον νέο πυρήνα, οι ερευνητές χρησιμοποίησαν πραγματικά αρχές τεχνητής νοημοσύνης που, όπως σημείωσε ο Javadi, μειώνουν την κατανάλωση ενέργειας για την επεξεργασία σημάτων.
Όπως εξήγησε, τα LLM στέλνουν και λαμβάνουν πολλά δεδομένα μέσω συνδέσεων με καλώδιο, τα οποία είναι χαλύβδινα σύνδεσμοι επικοινωνίας σε κέντρα δεδομένων. Αυτή η ολόκληρη διαδικασία απαιτεί σημαντική ενέργεια, οπότε μια πιθανή «λύση είναι να αναπτύξουν πιο αποδοτικές συνδέσεις επικοινωνίας με καλώδιο».
«Χρησιμοποιούμε αυτές τις αρχές τεχνητής νοημοσύνης στο chip για να ανακτήσουμε τα δεδομένα με έναν έξυπνο και πιο αποδοτικό τρόπο, εκπαιδεύοντας τον ταξινομητή στο chip να αναγνωρίσει και να διορθώσει τα λάθη.»
– Javadi
Ενώ είναι μια μεγάλη εξέλιξη, αυτό είναι μόνο η αρχική έκδοση του πυρήνα. Η επόμενη έκδοση είναι目前 σε εξέλιξη για να βελτιώσειさらに την ενεργειακή αποδοτικότητά του.
Συνολικά, αυτή η συνεχιζόμενη έρευνα δείχνει μεγάλο δυναμικό να έχει μακροπρόθεσμες επιπτώσεις για το μέλλον της υποδομής τεχνητής νοημοσύνης και των κέντρων δεδομένων. Αλλά, φυσικά, αυτό θα απαιτούσε την επιτυχή εφαρμογή της τεχνολογίας σε μεγάλες κλίμακες, το οποίο δεν είναι ποτέ ένα εύκολο έργο.
Κάντε κλικ εδώ για να μάθετε πώς η τεχνητή νοημοσύνη ανατρέπει την μηχανική μικροϋπολογιστών.
Κατακτώντας την Πείνα Ενέργειας της Τεχνητής Νοημοσύνης με Νέα σε Όλους τους Τομείς
Αυτή η τελευταία εξέλιξη του πυρήνα είναι μόνο ένα από τα πολλά ερευνητικά προγράμματα που αντιμετωπίζουν το πρόβλημα κατανάλωσης ενέργειας της τεχνητής νοημοσύνης. Έτσι, ας ρίξουμε μια σύντομη ματιά στα καινοτόμα τρόπους με τους οποίους οι ερευνητές αντιμετώπισαν αυτό.
Χρήση Φωτός για Αποδοτικότητα Τεχνητής Νοημοσύνης
Νωρίτερα αυτό το μήνα, επιστήμονες από το USST ανέπτυξαν1 einen μικροσκοπικό πυρήνα τεχνητής νοημοσύνης, μικρότερο από μια στάχτη ή ένα κόκκο αλατιού, που χρησιμοποιεί φως για να επεξεργαστεί δεδομένα από ινες οπτικών καλωδίων. Αυτό υποσχέθηκε ταχύτερες υπολογισμοί με λιγότερη κατανάλωση ενέργειας.
Ο πυρήνας χειρίζεται το φως για να εκτελέσει υπολογισμούς αμέσως, αντί να ερμηνεύει σήματα φωτός όπως οι παραδοσιακοί υπολογιστές. Για αυτό, χρησιμοποιεί «όλο το φως διφρακτική βαθιά νευρωνικό δίκτυο», τεχνολογία που χρησιμοποιεί προτυπωμένες, 3D-εκτυπωμένες στρώσεις συστατικών που στοιβάζονται μαζί. Αν και πρωτοποριακό, προκλήσεις όπως η σχεδιασμός εργασιών, η ευαισθησία στις ατέλειες και η δυσκολία παραγωγής σε μεγάλη κλίμακα πρέπει να υπερβούν για να επιτύχει «απρόσμενες λειτουργίες» σε εικόνες ενδοσκόπησης, κβαντική υπολογιστική και κέντρα δεδομένων.
Λίγους μήνες πριν, επιστήμονες του MIT επίσης χρησιμοποίησαν φως για να εκτελέσουν τις βασικές λειτουργίες ενός νευρωνικού δικτύου σε einen πυρήνα, ermöglicht ultra-ταχείς υπολογισμούς τεχνητής νοημοσύνης (σε μισό νανοδευτερόλεπτο) με 92% ακρίβεια και τεράστια ενεργειακή αποδοτικότητα.
«Αυτό το έργο αποδεικνύει ότι η επεξεργασία – στην ουσία της, η χαρτογράφηση εισόδων σε εξόδους – μπορεί να συνταχθεί σε νέες αρχιτεκτονικές γραμμικής και μη γραμμικής φυσικής που επιτρέπουν einen фундаментально διαφορετικό νόμο της υπολογιστικής σε σχέση με την απαιτούμενη προσπάθεια.»
– Senior author Dirk Englund
Οι επιστήμονες ανέπτυξαν2 einen φωτονικό πυρήνα, ο οποίος αποτελείται από διασυνδεδεμένα μέρη που σχηματίζουν einen οπτικό νευρωνικό δίκτυο. Σημαντικά, η χρήση εμπορικών διαδικασιών κατασκευής για την κατασκευή του σημαίνει ότι μπορεί να κλιμακωθεί και να ενσωματωθεί σε ηλεκτρονικά. Επίσης, οι επιστήμονες υπερέβησαν την πρόκληση της μη γραμμικότητας στην οπτική με το σχεδιασμό μη γραμμικών οπτικών λειτουργικών μονάδων (NOFUs) που συνδυάζουν ηλεκτρονική και οπτική.
Εργαλείο Λογισμικού για Εκπαίδευση Τεχνητής Νοημοσύνης & Ένας Σύστημα Ψύξης για Κέντρα Δεδομένων

Ερευνητές από το Πανεπιστήμιο του Μίσιγκαν, ενώ, στόχευαν στην ενεργειακή σπατάλη που δημιουργείται κατά την εκπαίδευση της τεχνητής νοημοσύνης, πιο συγκεκριμένα, όταν η εκπαίδευση διαιρείται μεταξύ GPU, μια αναγκαιότητα για την επεξεργασία μεγάλων συνόλων δεδομένων, ανισόμορφα.
Έτσι, ανέπτυξαν einen εργαλείο λογισμικού που ονομάζεται Perseus που αναγνωρίζει τις υπο-εργασίες που θα διαρκέσουν την μεγαλύτερη διάρκεια για να ολοκληρωθούν και στη συνέχεια μειώνει την ταχύτητα των επεξεργαστών που δεν βρίσκονται σε αυτήν την «κρίσιμη διαδρομή» για να επιτρέψει σε όλους να ολοκληρώσουν τις εργασίες τους ταυτόχρονα, αφαιρώντας την άσκοπη κατανάλωση ενέργειας.
Αυτό το ανοιχτό εργαλείο λογισμικού είναι διαθέσιμο ως μέρος του Zeus, eines εργαλείου για τη μέτρηση και την βελτιστοποίηση της κατανάλωσης ενέργειας της τεχνητής νοημοσύνης.
Εν τω μεταξύ, ερευνητές από το Πανεπιστήμιο του Μιζούρι στράφηκαν στην σχεδιασμό ενός νέου συστήματος ψύξης για να βοηθήσουν τα κέντρα δεδομένων να γίνουν πιο ενεργειακά αποδοτικά. Επίσης, κατασκευάζουν einen σύστημα ψύξης για εύκολη σύνδεση και αποσύνδεση μέσα σε ράφτες сервер.
«Η ψύξη και η κατασκευή πυρήνα πηγαίνουν χέρι-χέρι. Χωρίς κατάλληλη ψύξη, τα συστατικά υπερθερμαίνονται και αποτυχαίνουν. Τα ενεργειακά αποδοτικά κέντρα δεδομένων θα είναι το κλειδί για το μέλλον της υπολογιστικής τεχνητής νοημοσύνης.»
– Chanwoo Park, καθηγητής μηχανολογίας και αεροδιαστημικής μηχανικής στο Μιζού Κολλέγιο Μηχανικής
Με την υποστήριξη 1,5 εκατομμυρίων δολαρίων σε χρηματοδότηση από το DOE’s COOLERCHIPS, η ομάδα ανέπτυξε einen δύο-φασικό σύστημα ψύξης που απομακρύνει τη θερμότητα από τους πυρήνες των серверς μέσω φάσης αλλαγής. Όχι μόνο μπορεί να τρέξει παθητικά χωρίς να χρησιμοποιήσει ενέργεια όταν χρειάζεται για λιγότερη ψύξη, αλλά ακόμη και όταν σε ενεργό λειτουργία, το σύστημα χρησιμοποιεί eine πολύ μικρή ποσότητα.
CRAM Hardware Could Cut AI Energy Use by 1000x
Τον περασμένο καλοκαίρι, μηχανικοί στο Πανεπιστήμιο του Μινεσότα Twin Cities ανέπτυξαν3 einen προηγμένο υλικό που θα μπορούσε να μειώσει την κατανάλωση ενέργειας της τεχνητής νοημοσύνης κατά περίπου 1.000 φορές.
Αυτό το νέο μοντέλο ονομάζεται υπολογιστική τυχαία πρόσβαση μνήμης (CRAM), και εδώ, τα δεδομένα δεν αφήνουν ποτέ τη μνήμη· αντίθετα, επεξεργάζονται πλήρως μέσα στη μνήμη, ως εκ τούτου, καταργώντας την ανάγκη για ενεργειακά απαιτητικές και αργές μεταφορές δεδομένων.
Δύο δεκαετίες στη διαδικασία, αυτή η μελέτη είναι μέρος των προσπαθειών της ομάδας για την οικοδόμηση πάνω στη διπλωματική εργασία του Jian-Ping Wang για Magnetic Tunnel Junctions (MTJs) συσκευές. Αυτές οι νανοδομημένες συσκευές χρησιμοποιούνται για τη βελτίωση αισθητήρων, σκληρών δίσκων και άλλων μικροηλεκτρονικών συστημάτων όπως Magnetic Random Access Memory (MRAM).
«Ως ένα εξαιρετικά ενεργειακά αποδοτικό ψηφιακό υπολογιστικό υπόστρωμα μνήμης, το CRAM είναι πολύ ευέλικτο, καθώς η υπολογιστική μπορεί να εκτελεστεί σε οποιαδήποτε θέση στη μνήμη», σημείωσε ο συν-συγγραφέας Ulya Karpuzcu, Αναπληρωτής Καθηγητής στο Τμήμα Ηλεκτρικής και Ηλεκτρονικής Μηχανικής. Επίσης, μπορεί να ανακατασκευαστεί για να ταιριάζει καλύτερα τις ανάγκες απόδοσης διαφορετικών αλγορίθμων.
Εγκεφαλικό AI: Μειώνοντας την Κατανάλωση Ισχύος με Μίμηση Ανθρώπινης Αποδοτικότητας
Έτσι, όπως είδαμε, οι ερευνητές κοιτάζουν διαφορετικούς τομείς της τεχνητής νοημοσύνης για να αντιμετωπίσουν το πρόβλημα ενέργειας. Ενδιαφέρον είναι ότι στρέφονται επίσης στον ανθρώπινο εγκέφαλο για έμπνευση. Αυτό έχει νόημα,毕竟, η τεχνητή νοημοσύνη είναι η模ίωση ανθρώπινης νοημοσύνης από μηχανές, αν και είναι ακόμη μακριά από την ανθρώπινη σκέψη και συλλογισμό λόγω της ικανότητάς της να γενικεύει σε διαφορετικές παραλλαγές είναι «σημαντικά πιο αδύναμη από την ανθρώπινη γνωστική».
Η έρευνα για μείωση ενέργειας που εμπνέεται από τον εγκέφαλο περιλαμβάνει το έργο του Αναπληρωτή Καθηγητή Chang Xu στο Κέντρο Τεχνητής Νοημοσύνης του Πανεπιστημίου, ο οποίος σημείωσε ότι τα LLM που χρησιμοποιούν τις πόρους σε πλήρη ικανότητα, ακόμη και για απλές εργασίες, δεν είναι ο σωστός τρόπος να γίνει. Εξήγησε:
«Όταν σκέφτεστε ένα υγιές ανθρώπινο εγκέφαλο – δεν ενεργοποιεί όλα τα νευρώνες ή χρησιμοποιεί όλη τη δύναμη του εγκεφάλου同時. Λειτουργεί με απίστευτη ενεργειακή αποδοτικότητα, μόνο 20 Watt ισχύος παρά την ύπαρξη περίπου 100 δισεκατομμυρίων νευρώνων, τα οποία χρησιμοποιεί επιλεκτικά από διαφορετικές ημισφαίρια του εγκεφάλου για να εκτελέσει διαφορετικές εργασίες ή σκέψη.»
Ως εκ τούτου, αναπτύσσουν αλγορίθμους που παρακάμπτουν τις περιττές υπολογιστικές που δεν χρειάζονται και δεν μπουν σε υψηλή ταχύτητα αυτόματα.
Σε άλλες περιπτώσεις, η έρευνα έλαβε έμπνευση από τη νευρο调节 του εγκεφάλου και δημιούργησε einen αλγόριθμο που ονομάζεται «σύστημα αποθήκευσης» για να μειώσει την ενέργεια κατά 37% χωρίς καμία υποβάθμιση ακρίβειας, την αυτο-επισκευαστική λειτουργία του εγκεφαλικού κυττάρου που ονομάζεται αστροκύτταρα για υλικούς μηχανισμούς, και έλαβε eine νευρομορφική (εγκεφαλική) μορφή υπολογισμού (μεμριστορ) για να συνεργαστεί σε πολλές υπο-ομάδες νευρωνικών δικτύων.
Επενδύοντας σε Τεχνητή Νοημοσύνη
Μια παγκόσμια εταιρεία ημιαγωγών, AMD (AMD ) είναι γνωστή για τις υψηλών επιδόσεων υπολογιστικών, γραφικών και οπτικών τεχνολογιών. Ενώ βρίσκεται σε άμεση ανταγωνισμό με την NVIDIA, NVIDIA (NVDA ), είναι γρήγορα κερδίζει έδαφος στις αγορές κέντρων δεδομένων και επιταχυντών τεχνητής νοημοσύνης. Η σειρά MI300 ειδικά στοχεύει σε φόρτους εργασίας γενικής τεχνητής νοημοσύνης και εφαρμογές υψηλής απόδοσης.
Η ηγετική της παρουσία στο χώρο των CPU κέντρων δεδομένων, η ισχυρή εστίαση στην έρευνα και ανάπτυξη, η αύξηση των εσόδων, η πελατειακή της βάση και οι αγορές την καθιστούν ισχυρό παίκτη στον τομέα.
Advanced Micro Devices (AMD )
Πίσω στο 2022, η AMD έκανε μια ρεκόρ συμφωνία στην βιομηχανία τσιπ αξίας 50 δισεκατομμυρίων δολαρίων με την απόκτηση της Xilinx για να γίνει ο ηγέτης της βιομηχανίας σε υψηλής απόδοσης και προσαρμόσιμη υπολογιστική. Και πιο πρόσφατα, ολοκλήρωσε την απόκτηση της ZT Systems για να αντιμετωπίσει την ευκαιρία των 500 δισεκατομμυρίων δολαρίων για επιταχυντές κέντρων δεδομένων τεχνητής νοημοσύνης μέχρι το 2028.
Η απόδοση της αγοράς της AMD είναι επίσης σε διαδικασία ανάκαμψης φέτος μετά από το χτύπημα της ταραχής των δασμών. Κατά την время της γραφής, οι μετοχές της AMD giao dịchují στο 120 δολάρια, μείωση 6,9% YTD αλλά μόνο περίπου 47% κάτω από το υψηλό της από τον Μάρτιο του 2024. Με αυτό, η αγοραία αξία της είναι 182,34 δισεκατομμύρια δολάρια ενώ έχει ένα TTM EPS 1,36 και ένα TTM P/E 82,44.
Όσον αφορά τα οικονομικά της εταιρείας, η AMD αναφέρθηκε σε αύξηση 36% YOY στα έσοδα στα 7,4 δισεκατομμύρια δολάρια για το Q1 του 2025, το οποίο ο CEO Dr. Lisa Su ονόμασε «ένα εξαιρετικό ξεκίνημα» για το έτος, «παρά την δυναμική μακροοικονομική και ρυθμιστική περιβάλλον». Αυτή η αύξηση οφειλόταν στην «αυξανόμενη δυναμική κέντρων δεδομένων και τεχνητής νοημοσύνης».
Κατά τη διάρκεια αυτής της περιόδου, το λειτουργικό εισόδημα της AMD ήταν 806 εκατομμύρια δολάρια, το καθαρό εισόδημα ήταν 709 εκατομμύρια δολάρια και το μετοχικό κέρδος ήταν 0,44 δολάρια. Για το Q2 του 2025, προβλέπει περίπου 7,4 δισεκατομμύρια δολάρια σε έσοδα.
Ορισμένες κλειδιά εξελίξεις που έγιναν από την εταιρεία περιλαμβάνουν την επέκταση των στρατηγικών συνεργασιών με Meta Platforms, Inc. (META ) (Llama), Alphabet Inc. (GOOGL ) (Gemma), Oracle Corporation (ORCL ), Core42, Dell Technologies (DELL ) και άλλους. Η AMD, μαζί με τη Nokia, Cisco Systems, Inc. (CSCO ) και Jio, επίσης ανακοίνωσε μια νέα Ανοιχτή Τηλεπικοινωνιακή Πλατφόρμα Τεχνητής Νοημοσύνης για να προσφέρει λύσεις που οδηγούνται από τεχνητή νοημοσύνη για να βελτιώσουν την αποδοτικότητα, την ασφάλεια και τις ικανότητες.
Τώρα, αυτή την εβδομάδα, η AMD και η Nvidia συνεργάστηκαν με την Humain, μια θυγατρική της Public Investment Fund της Σαουδικής Αραβίας που εστιάζει στην τεχνητή νοημοσύνη, για να προμηθεύσουν ημιαγωγοί για ένα μεγάλο έργο κέντρου δεδομένων που αναμένεται να έχει μια ικανότητα 500 MW.
Κάντε κλικ εδώ για μια λίστα με τις κορυφαίες εταιρείες μη-πυριτίου υπολογιστών.
Τελευταίες Τάσεις και Εξελίξεις της Advanced Micro Devices (AMD)
Σύμπεσμα
Τους τελευταίους χρόνια, η μανία της τεχνητής νοημοσύνης έχει δει εκρηκτική αύξηση, και για καλό λόγο. Αυτή η τεχνολογία,毕竟, έχει τεράστια δυνατότητα να μεταμορφώσει ένα ευρύ φάσμα βιομηχανιών από την υγεία, τη производство και την επιστήμη των υλικών έως τις финάνσεις, την ψυχαγωγία, την εκπαίδευση, το λιανικό εμπόριο και την κυβερνοασφάλεια.
Ωστόσο, η τεχνολογική πρόοδος, η αυξανόμενη υιοθέτηση και η επακόλουθη επέκταση αυτών των LLM έχουν οδηγήσει σε μια σημαντική ζήτηση για ενέργεια, η οποία συνεισφέρει στις εκπομπές αερίων του θερμοκηπίου και την κλιματική αλλαγή, αυξάνει το οικονομικό κόστος και επηρεάζει τη βιωσιμότητα της τεχνολογίας.
Αυτό παρουσιάζει một τεράστιο πρόβλημα για την τεχνητή νοημοσύνη. Αν θέλουμε να πραγματοποιήσουμε πλήρως το πραγματικό της δυναμικό σε όρους μειωμένων κοστών, αυξημένης παραγωγικότητας και βελτιωμένων αποφάσεων σε κλίμακα, τα μοντέλα πρέπει να επιτύχουν αποδοτικότητα και βιωσιμότητα.
Το καλό, ωστόσο, είναι ότι ερευνητές σε όλο τον κόσμο εργάζονται ήδη σκληρά για να κάνουν την τεχνητή νοημοσύνη ενεργειακά αποδοτική, όπως φαίνεται από τον AI-ενεργοποιημένο πυρήνα του Oregon State, ο οποίος υποδηλώνει μια ισχυρή πιθανότητα να ευθυγραμμίσει την καινοτομία με τη βιωσιμότητα.
Βέβαια, οι προτεινόμενες τεχνολογίες πρέπει να υπερβούν το μεγαλύτερο εμπόδιο τους για να επιτύχουν πραγματικό κόσμο, την κλιμάκωση. Αλλά ένα πράγμα είναι σαφές: το πράσινο μέλλον της τεχνητής νοημοσύνης είναι εφικτό, και έρχεται!
Κάντε κλικ εδώ για να μάθετε όλα για την επένδυση σε τεχνητή νοημοσύνη.
Μελέτες Αναφοράς:
1. Yu, H., Huang, Z., Lamon, S., Wu, J., Zhao, Z., Lin, D., Zhao, H., Zhang, J., Lu, C., Liu, H., Zhang, X., & Zhang, C. (2025). All-optical image transportation through a multimode fibre using a miniaturized diffractive neural network on the distal facet. Nature Photonics, 19, 486–493. https://doi.org/10.1038/s41566-025-01621-4
2. Bandyopadhyay, S., Sludds, A., Krastanov, S., Youssry, A., Zhang, L., Lian, C., Yu, S., Desiatov, B., Burek, M. J., Lukin, M. D., & Lončar, M. (2024). Single-chip photonic deep neural network with forward-only training. Nature Photonics, 18, 1335–1343. https://doi.org/10.1038/s41566-024-01567-z
3. Lv, Y., Zink, B. R., Bloom, R. P., Roy, A., Vaddi, K., Shang, L., & Manipatruni, S. (2024). Experimental demonstration of magnetic tunnel junction-based computational random-access memory. npj Unconventional Computing, 1, 3. https://doi.org/10.1038/s44335-024-00003-3










