Het meest recente onderzoek van Microsoft introduceert een geavanceerd AI-model genaamd VASA-1, dat de kracht heeft om portretfoto's met bijbehorende audiobestanden te transformeren in realistische 'sprekende hoofden'. Dit huzarenstukje van technologische innovatie maakt indrukwekkende creaties mogelijk, maar roept tegelijkertijd vragen op over de mogelijke risico's.
In de ontwikkelingsfase demonstreert Microsoft de bekwaamheid van VASA-1 door aan te tonen hoe het portretten van individuen, samen met audio, op een overtuigende wijze kan laten spreken. Dit wordt bereikt door contextgevoelige gezichtsuitdrukkingen die nauw aansluiten bij de emotionele lading van de audio. Dit resulteert in beelden met een uitzonderlijke realistische aanblik en dynamiek.
De flexibiliteit van VASA-1 is bijzonder opmerkelijk. Het AI-model kan de richting van de blik, de positie van het hoofd en zelfs de emotionele expressie van de afgebeelde personen manipuleren, zonder dat deze personen rechtstreeks in de lens hoeven te kijken op het oorspronkelijke portret. Deze functionaliteiten geven een nieuwe dimensie aan de 'pratende foto's', waarbij deze avatars zelfs complexe taken zoals zingen kunnen uitvoeren op een manier die voorheen onvoorstelbaar was.
Microsoft heeft VASA-1 specifiek ontworpen met het oog op het tot leven brengen van virtuele karakters. Voorbeeldbeelden die tijdens het onderzoek zijn vrijgegeven, zijn gecreëerd met behulp van DALL-E van OpenAI, wat de veelzijdigheid en kracht van deze technologie onderstreept. De potentiële toepassingen zijn legio, variërend van het verrijken van AI-personages met realistische expressies en lip-sync tot het creëren van avatars voor sociale media die meer resoneren met de kijker. Een treffend voorbeeld dat Microsoft aanhaalt, is het animeren van de Mona Lisa, waardoor deze iconische afbeelding op nieuwe en verrassende manieren tot leven komt.
Desondanks zijn de potentiële gevaren niet te onderschatten. Een brede toegankelijkheid van dergelijke technologie zou de weg kunnen vrijmaken voor overtuigendere deepfakes, die voor malafide doeleinden gebruikt kunnen worden. Daarom kiest Microsoft ervoor om de technische details van VASA-1 tijdelijk geheim te houden. Ondanks de goede intenties, voornamelijk gericht op creatieve en positieve toepassingen, benadrukken de onderzoekers de risico's van misbruik en de noodzaak voor zorgvuldige overwegingen omtrent de verspreiding van dergelijke technologieën.
Aanbevolen reactie
Doe je mee?
Je kunt nu een bericht plaatsen en je later registeren. Als je al een account hebt, kun je je hier aanmelden.
Note: Your post will require moderator approval before it will be visible.