<html xmlns:o="urn:schemas-microsoft-com:office:office" xmlns:w="urn:schemas-microsoft-com:office:word" xmlns:m="http://schemas.microsoft.com/office/2004/12/omml" xmlns="http://www.w3.org/TR/REC-html40"><head><meta http-equiv=Content-Type content="text/html; charset=utf-8"><meta name=Generator content="Microsoft Word 15 (filtered medium)"><style><!--
/* Font Definitions */
@font-face
        {font-family:"Cambria Math";
        panose-1:2 4 5 3 5 4 6 3 2 4;}
@font-face
        {font-family:Calibri;
        panose-1:2 15 5 2 2 2 4 3 2 4;}
/* Style Definitions */
p.MsoNormal, li.MsoNormal, div.MsoNormal
        {margin:0in;
        margin-bottom:.0001pt;
        font-size:11.0pt;
        font-family:"Calibri",sans-serif;}
a:link, span.MsoHyperlink
        {mso-style-priority:99;
        color:blue;
        text-decoration:underline;}
.MsoChpDefault
        {mso-style-type:export-only;}
@page WordSection1
        {size:8.5in 11.0in;
        margin:1.0in 1.0in 1.0in 1.0in;}
div.WordSection1
        {page:WordSection1;}
--></style></head><body lang=EN-US link=blue vlink="#954F72"><div class=WordSection1><p class=MsoNormal>I got a chance to look at your work recently.  More animations would be more convincing. I know you’re working on  more advanced system. I recently got involved in Natural Semantic Metalanguage (NSM) and have been tasked with translating NSM primes and phrases to ASL.  The best approach so far has been to translate primes and phrases using:</p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal><a href="http://www.signbank.org/signpuddle2.0/translate.php?ui=1&sgn=4&build=apple+tree&action=translate">http://www.signbank.org/signpuddle2.0/translate.php?ui=1&sgn=4&build=apple+tree&action=translate</a><o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>It seems like most deaf people ignore deaf writing systems, and go for videos. Would there be a service available that can translate English to HamNoSys, SiGML, and VRML/X3D?  Would it be possible for me to work on such a thing?</p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>Sent from <a href="https://go.microsoft.com/fwlink/?LinkId=550986">Mail</a> for Windows 10</p><p class=MsoNormal><o:p> </o:p></p><div style='mso-element:para-border-div;border:none;border-top:solid #E1E1E1 1.0pt;padding:3.0pt 0in 0in 0in'><p class=MsoNormal style='border:none;padding:0in'><b>From: </b><a href="mailto:richard@kennaway.org.uk">Richard Kennaway</a><br><b>Sent: </b>Tuesday, September 17, 2019 3:14 AM<br><b>To: </b><a href="mailto:x3d-public@web3d.org">x3d-public@web3d.org</a><br><b>Subject: </b>Re: [x3d-public] New Work Statement -- X3D Scenegraph to SemanticDescription and back. Semantics to Animation</p></div><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>I've done some work on animating sign language myself, going from the  </p><p class=MsoNormal>HamNoSys notation  </p><p class=MsoNormal>(https://en.wikipedia.org/wiki/Hamburg_Notation_System) to a more  </p><p class=MsoNormal>convenient XML-ised version called SiGML (Signing Gesture Markup  </p><p class=MsoNormal>Language), and thence to animation data for any given avatar. The  </p><p class=MsoNormal>animation data can be generated in a variety of formats, including  </p><p class=MsoNormal>VRML, although I've never upgraded it to generate X3D. The most  </p><p class=MsoNormal>complete description of the general approach I took is in the  </p><p class=MsoNormal>unpublished (except for arXiv) "Avatar-independent scripting for  </p><p class=MsoNormal>real-time gesture animation" https://arxiv.org/abs/1502.02961.</p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>-- Richard Kennaway</p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>Quoting John Carlson <yottzumm@gmail.com>:</p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>[Hide Quoted Text]</p><p class=MsoNormal>https://en.wikipedia.org/wiki/International_Movement_Writing_Alphabet</p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>http://www.movementwriting.org/</p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>It appears that there is quite a bit of research behind translating  </p><p class=MsoNormal>sign languages and other movement languages to a graphical form.</p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>Interesting!</p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>John</p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>_______________________________________________</p><p class=MsoNormal>x3d-public mailing list</p><p class=MsoNormal>x3d-public@web3d.org</p><p class=MsoNormal>http://web3d.org/mailman/listinfo/x3d-public_web3d.org</p><p class=MsoNormal><o:p> </o:p></p></div></body></html>