Connect with us

Robotik

AI-drevne robotter lærer menneskelige læbebevægelser

mm
Uncanny Robots that Sing and Speak Like Humans 1

Ingeniører fra Columbia har skabt en robot, der kan efterligne og lære menneskelige læbebevægelser under tale. Den opgraderede design kombinerer avanceret robotteknologi med AI, hvilket giver enheden – der hedder Emo – mulighed for at lære fra observation af menneskelige udtryk og replicere menneskelige følelser, når det er passende. Her er, hvad du skal vide.

Resumé: Ingeniører fra Columbia har udviklet en AI-dreven humanoid robot, der kan lære realistiske menneskelige læbebevægelser gennem observation, hvilket dramatisk forbedrer tale-synkronisering og følelsesudtryk.

Hvorfor humanoid robotter udløser den ukomfortable dal

Siden de tidligste dage i robotteknologi har der været en stræben efter at skabe humanoid robotter. Dette er meget lettere sagt end gjort, da robotingeniører konstant har gjort fremskridt i den retning, men har aldrig fuldt ud opnået deres mål om at skabe en enhed, der ser og føles som en rigtig menneske.

Den ukomfortable dal

Den japanske robotforsker Masahiro Mori bemærkede dette fænomen i 1970’erne. I hans nu berømte “Bukimi no Tani Gensho” (Dal af uhygge) essay går han i detaljer om konceptet. Artiklen beskriver, hvordan humanoid robotter altid når et punkt af skarp afbrydelse med deres observatører på grund af subtile fejl.
I 1978 kom begrebet ind i vestlige videnskabelige kredse via Jasia Reichardts bog “Robots: Fact, Fiction, and Prediction,” som oversatte begrebet til dets nuværende populære brug, “den ukomfortable dal”. Dette arbejde bygger på Moris diskussion og beskriver, hvordan de mindste forskelle kan forårsage negative reaktioner i observatørens forbindelse.

Menneskeansigter er den sværeste del af ligningen

I de sidste årtier er der blevet opnået flere milepæle i skabelsen af humanoid robotter. Ny teknologi som LLM’er gør det muligt for disse enheder at kommunikere ved hjælp af naturligt sprog, hvilket hjælper med at brobygge gapet. Imidlertid er et af de største områder, der stadig kræver megen opmærksomhed, menneskeansigtet.
Uncanny Robots that Sing and Speak Like Humans
Menneskeansigtet er en kompleks blanding af væv, nerver og muskler, der kan demonstrere tusindvis af forskellige udtryk, mange af dem hjælper med at kommunikere følelser til andre. På denne måde ses ansigtet som den ultimative kommunikationsenhed.
Robotingeniører har længe erkendt vigtigheden og sværheden ved at skabe robotansigter, der fungerer som mennesker. Gennem års hårdt arbejde har robotter formået at opnå menneskelignende ansigter med hud og udtryk. Alligevel, på trods af milliarder i forskning, mangler forbindelsen stadig.
Swipe for at rulle →

Funktion Menneskeansigt Traditionelle humanoid robotter Columbia AI-læbe-system
Muskelkompleksitet 30+ ansigtsmuskler med kontinuert bevægelse Begrænsede motorer med stive begrænsninger 26 motorer med blød silikone-artikulation
Læbe-lyd-synkronisering Naturoligt synkroniseret under tale Foruddefinerede, ofte forsinkede bevægelser Lært dynamisk via vision-til-handling AI
Følelsesudtryk Subtile, kontekst-afhængige mikroudtryk Minimal eller overdrevne udtryk Følelsesmæssigt koherente læbe- og ansigtskoder
Tilpasningsevne Lærer kontinuerligt gennem interaktion Statiske bevægelsesbiblioteker Selvforbedring gennem observationel læring
Den ukomfortable dal-effekt Ingen Høj observatør-ubehag Væsentligt reduceret ukomfortabel respons

Vigtigheden af læber i kommunikation

Roboticister har konstant stødt på et betydeligt problem, når de skaber humanoid enheder – det er næsten umuligt at genskabe læbebevægelse. Dine læber gør mere end at dirigere lyden af din stemme og hjælpe dig med at udtale ord.
Dine læber viser faktisk følelse på et subtilt niveau, som gennem årtusinder af evolution er blevet vital for menneskelig kommunikation. Bemærkelsesværdigt er dine læbebevægelser en af de mest fokuserede træk af dit ansigt under samtaler. Derfor dedikerer din hjerne mere tænkepower til disse gestus end andre handlinger som atrynke din pande eller blinke.

Roboters læber ser unaturlige ud

Trods robotterne har opnået at se næsten menneskelige ud, mangler de stadig i læbeansigtsudtryk. Årtiers forskning har bevist, at teknologien ikke findes til at opnå den rigtige læbe-lyd-synkronisering, der kræves for at skabe realistisk adfærd. Derfor ser robotterne altid ud, som om de har deres samtaler dubbet i stedet for taler. Denne dubbe-de-lyd-effekt får disse enheder til at se klodsete og livløse ud.

Columbia-studie: At lære robotter realistiske læbebevægelser

Takfullydt har et hold af Columbia-ingeniører måske fundet ud af, hvordan man kan krydse den ukomfortable dal. Studiet “Learning realistic lip motions for humanoid face robots¹” introducerer en ny type robotansigt, der fokuserer primært på læbebevægelse og synkronisering.

Specialiseret hardware

En af de største udfordringer, som holdet havde at overvinde, var stivheden af i dagens robotansigter. Mens der har været mange nye designs, der giver motor-drevne reaktioner i ansigtet, kan ingen af dem understøtte den kompleksitet, der er nødvendig for at aktivere realistiske læbebevægelser.
For at overvinde denne begrænsning brugte ingeniørerne formål-byggede silikone-læber, der giver maksimal udtryk. Derefter indlejrede de 26 ansigtsmotorer, en ansigts-handlings-transformation og en variationel auto-encoder (VAE).

Vision-til-handling (VLA)

I kernen af denne teknologiske gennembrud ligger vision-til-handling AI-modellen. Ved hjælp af denne model kan et robotansigt selvstændigt skabe realistiske læber, der ikke afhænger af foruddefinerede mekaniske indstillinger for bevægelse.
For at skabe modellen anvendte holdet observationel læringsmetoder. Denne type programmering giver enheden mulighed for at fastslå præcise læbedynamik under tale i realtid. Derfor var det første skridt at indsætte algoritmen i en selv-overvåget læringspipeline.
Kilde - Columbia
Dette skridt krævede, at ingeniørerne placerede robotansigtet foran en spejl og instruerede det i at skabe tusindvis af ansigter. Denne handling tillod algoritmen at fange dens ansigtsudtryksmuligheder. Derefter så robotten timer af YouTube-indhold.
Kombinationen af lyd og læbebevægelse blev nøje sporet og brugt til at programmere robotens ansigt-læbe AI-algoritme. Over nogle dage lærte den præcis, hvordan dens ansigt skulle se ud fra menneskeligt udtryk i stedet for at bruge input-parametre. Ingenicørerne tilføjede derefter lyd og begyndte at teste.

Hvordan læbe-synkroniserings-AI blev testet på tværs af sprog

Holdet testede deres teori på tværs af 10 forskellige sprog og lingvistiske kontekster. Testen brugte helt nye sprog til modellen, hvilket sikrede, at den ville have at beregne den rigtige ansigtsudtryk og læbebevægelse i stedet for at huske tidligere trænede ord. Interessant nok brugte testen også kontekst og sange.

Uncanny robot-testresultater

Testresultaterne viste visuelt koherent læbe-lyd-synkronisering på tværs af brættet. Bemærkelsesværdigt gav algoritme-dreven robot realistiske læbebevægelser, der nøjagtigt matchede flere lydklip. Imponerende var det også i stand til at synkronisere sine læbebevægelser på tværs af 10 sprog og sang endda en sang fra sin AI-genererede debutalbum, hello world_.
Bemærkelsesværdigt fandt holdet også nogle begrænsninger i teknologien. For det første kunne robotten ikke konsekvent reproducere hårde læbebevægelser forbundet med ord som “pop”. Det havde også svært ved at reproducere sammenknebne ord som “whistle.” Bemærkelsesværdigt noterede ingeniørerne, at disse små ufuldkommenheder vil arbejde sig selv ud, når algoritmen forbedres over tid. Denne selv-lærende funktion er den bedste del af algoritmen. Den vil kontinuerligt forbedre sig, når den fanger mere data fra mennesker over tid, og åbner døren for mere meningsfulde menneske-maskine-interaktioner i fremtiden.

Nøglefordele ved realistiske humanoid robotter

Der er flere fordele, som denne teknologi bringer til markedet. For det første vil det give mulighed for, at mennesker kan danne en dybere forbindelse med maskiner. De fleste mennesker er ikke klar over, hvor meget kommunikation sker via ansigtsudtryk underbevidst.
Denne studie åbner døren for læbe-synkroniserings-teknologi og konversations-AI til at skabe menneskelignende oplevelser, der kan hjælpe med at bekæmpe ensomheds-epidemien og mere. Ved hjælp af denne teknologi vil humanoid robotter være i stand til at komme ét skridt nærmere at krydse den ukomfortable dal og drive robotteknologi til et nyt niveau.

Reelle verdensansøgninger og tidsplan

Der er mange ansøgninger for denne teknologi, der strækker sig på tværs af flere industrier. Den åbenlyse brug af denne teknologi er at hjælpe med at drive humanoid robotteknologi fremad. Evnen til at projicere bløde, varme ansigter på kolde robotter kunne hjælpe med at drive adoption. Her er nogle andre ansøgninger at tænke over.

Ældrepleje

Mens de ikke anses for at være de mest teknisk kyndige mennesker, har de ældre begyndt at omfavne robotteknologi på en helt ny måde. Ældrepleje-assisterende robotter-markedet er på vej op, med statistik, der viser, at det nåede $3,38 mia. i 2025. De samme rapporter forudser, at det vil overstige $9,85 mia. i 2033.
De ældre ville være mere villige til at interagere og acceptere robotter, hvis de ikke så teknisk komplicerede ud. Som sådan kunne en robot-assistent, der kunne kommunikere ved hjælp af tale samt realistiske ansigtsbevægelser, være det perfekte match. Ældre patienter kunne finde en forbindelse samt meget nødvendig assistance.

Underholdning

Underholdningsindustrien kunne være blandt de første til at adoptere denne teknologi. Filminstruktører afhænger stærkt af robotteknologi i dagens underholdningsindustri. Fra animatronik som dem, der bruges i temaparker som Disney til motion-capture-robotter, der bruges i større film, har enhederne skubbet underholdningsindustrien fremad.
I dag overskrider underholdningsrobotter-sektoren $4,72 mia. Denne værdi forventes at vokse til $26,94 mia. i 2034, drevet af stærkere efterspørgsel efter realistiske CGI-karakterer. I den nærmeste fremtid kunne denne teknologi udfylde dette niche og give skuespillere mulighed for at dele deres ansigter med karakterer på nye og mere direkte måder.

Uddannelse

Uddannelsessektoren er endnu et sted, hvor denne teknologi kunne blomstre. Her kunne disse enheder sættes op som personlige undervisere. Allerede viser nogle rapporter, at studenter opnåede en 30% forbedring i matematikforståelse ved hjælp af robot-tilpassede lektioner.

Adoptions-tidsplan

Du kan forvente at se denne teknologi begynde at filtrere ind i hverdagslivet inden for de næste 5-10 år. Robotter er allerede i mange fabrikker og arbejdspladser, og integrationen forventes kun at stige. Roboticister forstår, at integration af denne type teknologi kan hjælpe med at gøre deres enheder mere relaterbare.

Nøgleforskere ved Columbia

Studiet blev afholdt af Columbias Creative Machines Lab. Papiret nævner Yuhang Hu, Jiong Lin, Judah Allen Goldfeder, Philippe M. Wyder, Yifeng Cao, Steven Tian, Yunzhe Wang, Jingran Wang, Mengmeng Wang, Jie Zeng, Cameron Mehlman, Yingke Wang, Delin Zeng, Boyuan Chen og Hod Lipson som bidragsydere.

Hvad kommer næste for menneske-lignende robotter

Holdet vil nu fokusere på at forbedre algoritmen yderligere. Dette skridt vil involvere mere menneskelig interaktion og kunne endda udvikle sig til multiple enheder, der er i stand til at lære i realtid og dele denne data med en central model.

Investering i robotteknologisk innovation

Robotindustrien er en hurtigt udviklende sektor, der har oplevet kraftig vækst i de sidste 5 år. Introduktionen af nye teknologier som LLM’er og 3D-printere har hjulpet med at drive innovation til nye niveauer. For en omfattende gennemgang af det bredere markedsmuligheder, læs vores vejledning om investering i fysisk AI og humanoid robotter i 2026.
Her er et selskab, der har været i forkanten af denne revolution.

Teradyne ($36B)

Teradyne, Inc. (TER ) er moderselskabet til Universal Robots (UR), markedslederen i “cobots” (samarbejdende robotter). Selvom Teradyne ikke bygger humanoid ansigter, er det i øjeblikket den førende spiller i at bringe “watch-and-learn” AI, som beskrevet i Columbia-studiet, til fabriksgulvet.
Vigtigt er, at Teradyne har dannet et strategisk partnerskab med Nvidia (NVDA ) til at integrere “Isaac Manipulator”-platformen. Dette giver Teradynes robotter mulighed for at bruge AI-kameraer til at “se” deres omgivelser og dynamisk tilpasse deres vej i stedet for at afhænge af stive, foruddefinerede koder.

(TER )

2026-præstation og værdi: Teradyne anses bredt for at være en “blue chip” robot-aktie. Dets aktier steg næsten 50% i 2025 og er fortsat med at stige i begyndelsen af 2026, handlende nær $230-området.

Investor-advarsel: Selvom momentum er stærkt, bemærker analytikere, at TER i øjeblikket handler til en høj værdipremium (over 70x P/E). Aktien er et væddemål om, at AI-integration vil udløse en massiv hardware-opgraderingscyklus i fremstilling, men den medfører betydelig volatilitetsrisiko i forhold til traditionelle industrivirksomheder som Deere eller Caterpillar.

Seneste Teradyne (TER) nyheder og præstation

Konklusion

Introduktionen af realistiske robotansigter giver fuld mening. LLM’er er nu i stand til at genskabe menneskeligt sprog, og når kombineret med realistiske ansigtsudtryk, vil disse enheder give en ny niveau af træning, læring, sundhedspleje og mere. For nu vil holdet fokusere på at jævne ufuldkommenhederne ud og finde strategiske partnere og finansiering.
Lær om andre cool robotteknologiske gennembrud her.

Referencer

1. Yuhang Hu et al., Learning realistic lip motions for humanoid face robots. Science Robotics 11, eadx3017 (2026). DOI:10.1126/scirobotics.adx3017

David Hamilton er en fuldtidsjournalist og en længerevarende bitcoinist. Han specialiserer sig i at skrive artikler om blockchain. Hans artikler er blevet offentliggjort i flere bitcoin-publikationer, herunder Bitcoinlightning.com

Advertiser Disclosure: Securities.io is committed to rigorous editorial standards to provide our readers with accurate reviews and ratings. We may receive compensation when you click on links to products we reviewed. ESMA: CFDs are complex instruments and come with a high risk of losing money rapidly due to leverage. Between 74-89% of retail investor accounts lose money when trading CFDs. You should consider whether you understand how CFDs work and whether you can afford to take the high risk of losing your money. Investment advice disclaimer: The information contained on this website is provided for educational purposes, and does not constitute investment advice. Trading Risk Disclaimer: There is a very high degree of risk involved in trading securities. Trading in any type of financial product including forex, CFDs, stocks, and cryptocurrencies. This risk is higher with Cryptocurrencies due to markets being decentralized and non-regulated. You should be aware that you may lose a significant portion of your portfolio. Securities.io is not a registered broker, analyst, or investment advisor.