<html>

<head>
<META HTTP-EQUIV="Content-Type" CONTENT="text/html; charset=us-ascii">


<meta name=Generator content="Microsoft Word 10 (filtered)">

<style>
<!--
 /* Style Definitions */
 p.MsoNormal, li.MsoNormal, div.MsoNormal
        {margin:0in;
        margin-bottom:.0001pt;
        font-size:12.0pt;
        font-family:"Times New Roman";}
a:link, span.MsoHyperlink
        {color:blue;
        text-decoration:underline;}
a:visited, span.MsoHyperlinkFollowed
        {color:purple;
        text-decoration:underline;}
span.EmailStyle17
        {font-family:Arial;
        color:windowtext;}
@page Section1
        {size:8.5in 11.0in;
        margin:1.0in 1.25in 1.0in 1.25in;}
div.Section1
        {page:Section1;}
-->
</style>

</head>

<body lang=EN-US link=blue vlink=purple>

<div class=Section1>

<p class=MsoNormal><font size=2 face=Arial><span style='font-size:10.0pt;
font-family:Arial'>Are emotions transitions?&nbsp;&nbsp; Given an editor where
the output is a video segment, can the emotional vocabulary of emoticons be
dragged and dropped to characters in scene the same way transitions, media
generators and effects are dropped on video segments?&nbsp; The answer is no,
but the emotions can be dragged and dropped as any of these on objects in the
scene.&nbsp;&nbsp; Because X3D/VRML are type-compatible routing, the final
output of the emotion effect is mesh/audio,&nbsp;&nbsp; The semantic of the
emotion has to be determined by the choice of choices for an emotion valid in the
intent of the author.</span></font></p>

<p class=MsoNormal><font size=2 face=Arial><span style='font-size:10.0pt;
font-family:Arial'>&nbsp;</span></font></p>

<p class=MsoNormal><font size=2 face=Arial><span style='font-size:10.0pt;
font-family:Arial'>No higher level of AI is needed for a drag and drop
stagecraft editor (eg, machinima).&nbsp; </span></font></p>

<p class=MsoNormal><font size=2 face=Arial><span style='font-size:10.0pt;
font-family:Arial'>&nbsp;</span></font></p>

<p class=MsoNormal><font size=2 face=Arial><span style='font-size:10.0pt;
font-family:Arial'>AI becomes useful when creating non-linear environments where
stories are built inside stories and the presentation order is not determined a
priori but is navigated in response to or furtherance of events made possible
as the aggregate of all active events at some points in the timeline or story
arc.&nbsp;&nbsp; Non-linear storytelling can be thought of as a multi-arc story
where nodes along each arc are pulling and pushing each other similar to
flocking behavior but more complex because of the emotion nodes linked and delinked
when proximity and type conflate to alter selections for the immediate choices
available.&nbsp;&nbsp; It is as if you hooked up the Google sorting algorithm
for presenting YouTube alternatives to the scene node thus the environment of
the character.&nbsp; It is the chooser of their choices, an autopilot in
emotional domain space.</span></font></p>

<p class=MsoNormal><font size=2 face=Arial><span style='font-size:10.0pt;
font-family:Arial'>&nbsp;</span></font></p>

<p class=MsoNormal><font size=2 face=Arial><span style='font-size:10.0pt;
font-family:Arial'>Systems such as the Google YouTube selector illustrate
emergent intelligence.</span></font></p>

<p class=MsoNormal><font size=2 face=Arial><span style='font-size:10.0pt;
font-family:Arial'>&nbsp;</span></font></p>

<p class=MsoNormal><font size=2 face=Arial><span style='font-size:10.0pt;
font-family:Arial'>len</span></font></p>

</div>

</body>

</html>