Deze robot kan haar lippen realistisch bewegen als ze praat of zingt
Tim Tomassen
15 januari 2026 15:00
Deel dit artikel:
Robot _EMO_. Beeld: Jane Nisselson/Columbia Engineering.
Kijk hoe deze robot haar mond en lippen (enigszins) realistisch beweegt als ze praat of een nummer van haar debuutalbum zingt.
De bewegingen van mensachtige robots, ook wel humanoïde robots genoemd, worden steeds geavanceerder en menselijker. Ze kunnen onder andere al dansen, boksen en voetballen. Maar hun gezicht – als ze die al hebben – beweegt vaak nog helemaal niet zo menselijk. Dat komt voor een groot deel doordat ze hun lippen tijdens het praten amper bewegen. Hun mond gaat vaak gewoon open en dicht, als een soort buikspreekpop.
Veel mensen vinden de robots daarom een beetje griezelig. Dit komt voort uit een bekend fenomeen dat de uncanny valley wordt genoemd: als figuren er bijna menselijk uitzien, maar dat niet zijn, krijgen we daar de kriebels van.
Onderzoekers van Columbia Engineering hebben nu voor het eerst een robot gemaakt die zichzelf de mond- en lipbewegingen kan aanleren die mensen gebruiken tijdens het praten of zingen. In een artikel in het vakblad Science Robotics demonstreren ze hoe hun robot _EMO_ in verschillende talen praat en zelfs een liedje van haar eigen AI-gegenereerde debuutalbum hello world zingt.
Bij mensen zijn tientallen spieren in het gezicht verantwoordelijk voor de beweging van de mond en lippen. Om dat zo goed mogelijk na te kunnen doen, hebben de onderzoekers hun robot 26 gezichtsmotoren gegeven. _EMO_ leerde eerst zelf hoe ze die moest gebruiken. Dat deed ze door in een spiegel te kijken hoe de motoren haar lippen en mond lieten bewegen. Na duizenden willekeurige bewegingen te hebben gemaakt, had ze geleerd hoe ze de gezichtsmotoren moest gebruiken om bepaalde houdingen aan te nemen.
Vervolgens lieten de onderzoekers de humanoïde robot urenlang YouTube-filmpjes kijken van pratende en zingende mensen. Het AI-systeem dat de robot aanstuurt kon hierdoor leren hoe mensen hun mond bewegen om bepaalde klanken te maken. Uiteindelijk was _EMO_ hierdoor in staat om geluidsopnames te vertalen naar realistische mond- en lipbewegingen.
De onderzoekers geven toe dat de bewegingen nog lang niet perfect zijn. “We hadden vooral moeite met harde klanken zoals de ‘B’ en met klanken waarbij de lippen worden getuit, zoals de ‘W’. Maar met extra training zullen deze vaardigheden waarschijnlijk verbeteren”, zegt onderzoeker Hod Lipson in een persbericht.
“Veel van de huidige humanoïde robotica is gericht op been- en handbewegingen, voor activiteiten zoals lopen en grijpen”, zegt Lipson. “Maar gezichtsuitdrukkingen zijn net zo belangrijk voor robotica-toepassingen waarbij menselijke interactie aan te pas komt.” De onderzoeker verwacht daarom dat warme, levensechte gezichten steeds belangrijker zullen worden als humanoïde robots gebruikt worden in sectoren zoals entertainment, onderwijs, geneeskunde en ouderenzorg.
“Er bestaat geen toekomst waarin al deze humanoïde robots gezichtloos zijn. En wanneer ze eindelijk een gezicht hebben, zullen ze hun ogen en lippen op de juiste manier moeten kunnen bewegen, anders blijven ze voor altijd griezelig”, zegt Lipson. “Wij mensen zijn nu eenmaal zo geprogrammeerd, daar kunnen we niets aan doen. Maar we staan nu op het punt om de uncanny valley over te steken.”
Duik in de wereld van wetenschap, technologie en ruimtevaart met KIJK! Ontdek de meest fascinerende achtergronden, baanbrekende ontwikkelingen en de spannendste verhalen uit de ruimte.
Wil jij niets missen én profiteren van een scherpe aanbieding? Word nu lid van KIJK en lees meer voor minder!