<html xmlns:o="urn:schemas-microsoft-com:office:office" xmlns:w="urn:schemas-microsoft-com:office:word" xmlns:m="http://schemas.microsoft.com/office/2004/12/omml" xmlns="http://www.w3.org/TR/REC-html40"><head><meta http-equiv=Content-Type content="text/html; charset=utf-8"><meta name=Generator content="Microsoft Word 15 (filtered medium)"><style><!--
/* Font Definitions */
@font-face
        {font-family:"Cambria Math";
        panose-1:2 4 5 3 5 4 6 3 2 4;}
@font-face
        {font-family:Calibri;
        panose-1:2 15 5 2 2 2 4 3 2 4;}
/* Style Definitions */
p.MsoNormal, li.MsoNormal, div.MsoNormal
        {margin:0in;
        margin-bottom:.0001pt;
        font-size:11.0pt;
        font-family:"Calibri",sans-serif;}
a:link, span.MsoHyperlink
        {mso-style-priority:99;
        color:blue;
        text-decoration:underline;}
.MsoChpDefault
        {mso-style-type:export-only;}
@page WordSection1
        {size:8.5in 11.0in;
        margin:1.0in 1.0in 1.0in 1.0in;}
div.WordSection1
        {page:WordSection1;}
--></style></head><body lang=EN-US link=blue vlink="#954F72"><div class=WordSection1><p class=MsoNormal><a href="https://www.youtube.com/watch?v=Raa0vBXA8OQ">https://www.youtube.com/watch?v=Raa0vBXA8OQ</a><o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal><a href="https://www.youtube.com/watch?v=OtiZqSHawXo">https://www.youtube.com/watch?v=OtiZqSHawXo</a><o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>Sent from <a href="https://go.microsoft.com/fwlink/?LinkId=550986">Mail</a> for Windows 10</p><p class=MsoNormal><o:p> </o:p></p><div style='mso-element:para-border-div;border:none;border-top:solid #E1E1E1 1.0pt;padding:3.0pt 0in 0in 0in'><p class=MsoNormal style='border:none;padding:0in'><b>From: </b><a href="mailto:joedwil@earthlink.net">Joseph D Williams</a><br><b>Sent: </b>Wednesday, September 18, 2019 10:46 AM<br><b>To: </b><a href="mailto:yottzumm@gmail.com">John Carlson</a>; <a href="mailto:richard@kennaway.org.uk">Richard Kennaway</a><br><b>Cc: </b><a href="mailto:semantics@web3d.org">semantics@web3d.org</a>; <a href="mailto:x3d-public@web3d.org">x3d-public@web3d.org</a><br><b>Subject: </b>RE: [x3d-public] Translation between Sign Markup Languages,ConvertingMarkup Languages,JSON to Scene Ontological Text (waiting for examples)</p></div><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>HI John, <o:p></o:p></p><p class=MsoNormal>I think the big idea would be to try and follow the chemML to x3d transformation using xml stylesheet approach.<o:p></o:p></p><p class=MsoNormal>If someone can establish an xml  vocabulary with some visual reference that can be implemented using arrangements of visual symbols and movements, then x3d can do it. The hanim hands can fully animate the poses, it is just associating a vocabulary element with a pose, and of course somebody actually formulating the user code to produce the poses using the ‘standard’ hanim hands.<o:p></o:p></p><p class=MsoNormal>Especially the 3D aspects of actual movement in z can help expressiveness. Another hard part is transitioning from one presentation smoothly to the next. Pick out 30 or so important poses that are encoded in signwriting and lets see if some hanim hand poses can be set. We already have some x3d examples of some simple hand animations. <o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>the best of the <o:p></o:p></p><p class=MsoNormal>Thanks,<o:p></o:p></p><p class=MsoNormal>Joe<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><div style='border:none;border-top:solid #E1E1E1 1.0pt;padding:3.0pt 0in 0in 0in'><p class=MsoNormal><b>From: </b><a href="mailto:yottzumm@gmail.com">John Carlson</a><br><b>Sent: </b>Tuesday, September 17, 2019 7:03 AM<br><b>To: </b><a href="mailto:richard@kennaway.org.uk">Richard Kennaway</a><br><b>Cc: </b><a href="mailto:semantics@web3d.org">semantics@web3d.org</a>; <a href="mailto:x3d-public@web3d.org">x3d-public@web3d.org</a><br><b>Subject: </b>[x3d-public] Translation between Sign Markup Languages,Converting Markup Languages,JSON to Scene Ontological Text (waiting for examples)<o:p></o:p></p></div><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>I’m looking at <a href="https://aslfont.github.io/Symbol-Font-For-ASL/ways-to-write.html#Comparison">https://aslfont.github.io/Symbol-Font-For-ASL/ways-to-write.html#Comparison</a>  it appears that HamNoSys is for academic use. Comments? There are three written languages that focus on non-ASL signers, and three that says they’re for Public Use.  The intersection of those two requirements leave SignWriting as the best choice.  As a bonus, there are ASCII and Unicode (proposed) versions.<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>Perhaps we can develop a translator between HamNoSys and SignWriting?  Does SWML really exist anymore?  Maybe translating SWML examples to SiGML will help flesh out SiGML for public use?   This appears to be the best reference I can find for SWML:  <a href="http://www.signwriting.org/forums/software/swml/swml06.html">http://www.signwriting.org/forums/software/swml/swml06.html</a>  There’s also this:  <a href="https://tools.ietf.org/id/draft-slevinski-signwriting-text-02.html">https://tools.ietf.org/id/draft-slevinski-signwriting-text-02.html</a> Perhaps SiGML is superior to SWML?  Can SiGML and SignWriting be used together?<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>I would prefer if we could focus on semantics as a lingua franca if possible.  I’m not quite sure how to do this, except convert sign language and VRML (X3D) to RDF/RDFS/OWL/TTL. Perhaps one could create a deaf ontology of virtual worlds?  Or would that be the same as the current ontology?<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>I think converting SiGML to ontological text (once we get the semantics right for scenes) would be most useful, if you’re fishing for a project!<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>I think my brain just stopped.  I need another mocha crutch!<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal><span style='color:red'>Still waiting for feedback on scene ontological texts.<o:p></o:p></span></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>John<o:p></o:p></p><p class=MsoNormal>Sent from <a href="https://go.microsoft.com/fwlink/?LinkId=550986">Mail</a> for Windows 10<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><div style='border:none;border-top:solid #E1E1E1 1.0pt;padding:3.0pt 0in 0in 0in'><p class=MsoNormal><b>From: </b><a href="mailto:yottzumm@gmail.com">John Carlson</a><br><b>Sent: </b>Tuesday, September 17, 2019 7:05 AM<br><b>To: </b><a href="mailto:richard@kennaway.org.uk">Richard Kennaway</a><br><b>Cc: </b><a href="mailto:x3d-public@web3d.org">x3d-public@web3d.org</a><br><b>Subject: </b>Re: [x3d-public] New Work Statement -- X3D Scenegraph to SemanticDescription and back. Semantics to Animation<o:p></o:p></p></div><p class=MsoNormal><o:p> </o:p></p><div><div><p class=MsoNormal>It appears like there are many fonts for the deaf, <o:p></o:p></p><div><p class=MsoNormal><a href="https://aslfont.github.io/Symbol-Font-For-ASL/ways-to-write.html">https://aslfont.github.io/Symbol-Font-For-ASL/ways-to-write.html</a>.  Your SiGML has the feature of being written in UTF-8 (I guess).   Do you have a schema for SiGML?<o:p></o:p></p></div></div></div><div><p class=MsoNormal><o:p> </o:p></p><div><div><p class=MsoNormal>On Tue, Sep 17, 2019 at 3:14 AM Richard Kennaway <<a href="mailto:richard@kennaway.org.uk">richard@kennaway.org.uk</a>> wrote:<o:p></o:p></p></div></div></div><p class=MsoNormal style='margin-left:4.8pt'>I've done some work on animating sign language myself, going from the  <br>HamNoSys notation  <br>(<a href="https://en.wikipedia.org/wiki/Hamburg_Notation_System" target="_blank">https://en.wikipedia.org/wiki/Hamburg_Notation_System</a>) to a more  <br>convenient XML-ised version called SiGML (Signing Gesture Markup  <br>Language), and thence to animation data for any given avatar. The  <br>animation data can be generated in a variety of formats, including  <br>VRML, although I've never upgraded it to generate X3D. The most  <br>complete description of the general approach I took is in the  <br>unpublished (except for arXiv) "Avatar-independent scripting for  <br>real-time gesture animation" <a href="https://arxiv.org/abs/1502.02961" target="_blank">https://arxiv.org/abs/1502.02961</a>.<br><br>-- Richard Kennaway<br><br>Quoting John Carlson <<a href="mailto:yottzumm@gmail.com" target="_blank">yottzumm@gmail.com</a>>:<br><br>[Hide Quoted Text]<br><a href="https://en.wikipedia.org/wiki/International_Movement_Writing_Alphabet" target="_blank">https://en.wikipedia.org/wiki/International_Movement_Writing_Alphabet</a><br><br><a href="http://www.movementwriting.org/" target="_blank">http://www.movementwriting.org/</a><br><br>It appears that there is quite a bit of research behind translating  <br>sign languages and other movement languages to a graphical form.<br><br>Interesting!<br><br>John<br><br><br>_______________________________________________<br>x3d-public mailing list<br><a href="mailto:x3d-public@web3d.org" target="_blank">x3d-public@web3d.org</a><br><a href="http://web3d.org/mailman/listinfo/x3d-public_web3d.org" target="_blank">http://web3d.org/mailman/listinfo/x3d-public_web3d.org</a><o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal><o:p> </o:p></p></div></body></html>