<div dir="auto">Remember I said I was getting into procedural generation again.   Well this time it’s the generation of emotion.   One can create emotion through music, words, action, and situation or context.   Our faces conform to the emotion we are feeling.   In HAnim2 we have mainly focused on action or animation, without considering the emotion that generated the emotion.   If I want my avatar in a 3D world to express an emotion, currently I pick from a list of actions.</div><div dir="auto"><br></div><div dir="auto">With AI’s help, we are getting much better at mapping our face onto an avatar.</div><div dir="auto"><br></div><div dir="auto">How do we bring this important capability in virtual worlds, which might be the key to the success of VR/AR/MR/XR?</div><div dir="auto"><br></div><div dir="auto">I’m not really sure if it’s just photons and sound?</div><div dir="auto"><br></div><div dir="auto">How does context translate into emotion?  Can computers guess how we might feel?</div><div dir="auto"><br></div><div dir="auto">How does this translate into XML/attachments?</div><div dir="auto"><br></div><div dir="auto">John</div>