Adobe Character Animator is een met een Emmy bekroond softwareproduct voor desktoptoepassingen dat live motion-capture combineert met een opnamesysteem met meerdere sporen om gelaagde 2D-poppen te besturen die zijn getekend in Photoshop of Illustrator. Het wordt automatisch geïnstalleerd met Adobe After Effects CC 2015 tot 2017 en is ook beschikbaar als een zelfstandige applicatie die je afzonderlijk kunt downloaden als onderdeel van een Creative Cloud-abonnement voor alle apps. Het wordt gebruikt om zowel live als niet-live animaties te produceren.
Character Animator importeert gelaagde Adobe Photoshop- en Adobe Illustrator-documenten in poppen waarop gedrag is toegepast. De poppen worden vervolgens in een scène geplaatst, die kan worden bekeken in het deelvenster Scène en Tijdlijn. Rigging wordt ingesteld in het Puppet-paneel, hoewel de basis-rigging volledig automatisch is op basis van specifieke laagnamen zoals Right Eyebrow en Smile. Eigenschappen van geselecteerde elementen kunnen worden onderzocht en gewijzigd in het paneel Eigenschappen, inclusief gedragsparameters. Live-ingangen omvatten een webcam (voor het volgen van gezichten), microfoon (voor live lipsynchronisatie), toetsenbord (voor het activeren van lagen om te verbergen / weergeven) en muis (voor het vervormen van specifieke handvatten).
De uiteindelijke uitvoer van een scène kan worden geëxporteerd naar een reeks PNG-bestanden en een WAV-bestand, of elk videoformaat dat wordt ondersteund door Adobe Media Encoder. Live output kan worden verzonden naar andere applicaties die op dezelfde machine draaien via het Syphon-protocol (alleen Mac) of Adobe Mercury Transmit op zowel Mac als Windows. Scènes kunnen ook rechtstreeks in After Effects en Premiere Pro worden neergezet, met behulp van Dynamic Link om rendering te voorkomen.