<div dir="ltr"><div>MIXING REAL AND VIRTUAL WORLDS</div><div><br></div><div>Imagine having AI and machine vision on the output end construct a representative world and send it to the near end, and keep it updated as the real world changes. And inputs from the near end steered into the near scene would be output by the remote end, after translating into real-world outputs.</div><div>That requires just 2 functions:</div><div>realworld2virtualworld()</div><div>virtualworld2realworld()</div><div>-Doug</div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, Apr 10, 2020 at 5:42 PM GPU Group <<a href="mailto:gpugroup@gmail.com" target="_blank">gpugroup@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><p class="MsoNormal" style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">updating virtual world in real time from real world on other end</p>

<p class="MsoNormal" style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana"><span style="font-size:10pt">1) a way to stream skeletal movements and
face-texture-patches / face gesture movements</span><br></p>

<p class="MsoNormal" style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana"><a href="https://sites.google.com/site/commutar/home/telepresence" style="color:blue" target="_blank">https://sites.google.com/site/commutar/home/telepresence</a>  </p>

<p class="MsoNormal" style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">- a way to track a face, scrape and send just the facial
texture patch, and head gestures</p>

<p class="MsoNormal" style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">- a way to patch a skin texture for incoming facial gestures</p>

<p class="MsoNormal" style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">- and pose head / body </p>

<p class="MsoNormal" style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">2) a way to steam 'oriented textures' to
compose/compile/patch/update a panorama in real-time as a remote camera pans
around</p>

<p class="MsoNormal" style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">- for situational awareness, and late-arriving image frames
are in correct 3D direction/pose</p>

<p class="MsoNormal" style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">3) a way to control things remotely ie camera panning,
remote telerobots</p>

<p class="MsoNormal" style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana"><span style="font-size:10pt">- cluster of nodes relating to AI, machine vision, operator
pose-sensing, and communication of pose, and feedback information </span><br></p>

<p class="MsoNormal" style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">-Doug Sanden</p>

<p class="MsoNormal" style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana"><br></p></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, Apr 10, 2020 at 5:37 PM GPU Group <<a href="mailto:gpugroup@gmail.com" target="_blank">gpugroup@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">VR as intermediary to other devices > audio receiving devices > smarthomeassistants > steering audio<div>- when we speak into a VR system, it may be necessary to steer the output audio in what I'll call a VR output device<div>- currently v4 specs are looking at what I think is steerable stereo audio output on the input device end</div></div><div>- that would need to be aimable on the output end, for example so you can tell a specific smarthomeassistant or other audio-activated device to do something, in such a way it knows its the one being ordered.</div><div><br></div><div>-Doug</div><div><br></div><div><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, Apr 10, 2020 at 4:02 PM Feng Liu <<a href="mailto:LIU_F@mercer.edu" target="_blank">LIU_F@mercer.edu</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">




<div dir="ltr">
<div style="font-family:Calibri,Arial,Helvetica,sans-serif;font-size:12pt;color:rgb(0,0,0)">
All brilliant ideas! There are definitely UX involves in the design and testing of those apps/AI robots.</div>
<div style="font-family:Calibri,Arial,Helvetica,sans-serif;font-size:12pt;color:rgb(0,0,0)">
Feng</div>
<div id="gmail-m_6489426466978668904gmail-m_8004528302259652609gmail-m_4204436118552789856gmail-m_-4722488295830262721appendonsend"></div>
<hr style="display:inline-block;width:98%">
<div id="gmail-m_6489426466978668904gmail-m_8004528302259652609gmail-m_4204436118552789856gmail-m_-4722488295830262721divRplyFwdMsg" dir="ltr"><font face="Calibri, sans-serif" style="font-size:11pt" color="#000000"><b>From:</b> GPU Group <<a href="mailto:gpugroup@gmail.com" target="_blank">gpugroup@gmail.com</a>><br>
<b>Sent:</b> Friday, April 10, 2020 4:50 PM<br>
<b>To:</b> Nicholas Polys <<a href="mailto:npolys@vt.edu" target="_blank">npolys@vt.edu</a>><br>
<b>Cc:</b> Feng Liu <<a href="mailto:LIU_F@mercer.edu" target="_blank">LIU_F@mercer.edu</a>>; Sadagic, Amela (CIV) <<a href="mailto:asadagic@nps.edu" target="_blank">asadagic@nps.edu</a>>; x3d-public@web3D.org <<a href="mailto:x3d-public@web3d.org" target="_blank">x3d-public@web3d.org</a>><br>
<b>Subject:</b> Re: [x3d-public] Web3DUX working group minutes 8 April 2020</font>
<div> </div>
</div>
<div>
<div dir="ltr">LOW POWER OUTPUTS
<div>Instead of human-size robot arms to do remotely what humans want, many devices now have their own low-power self-contained motors right-sized for each job.</div>
<div>Imagining stapling 2 pages together at the office, done from home. </div>
<div>a) high power way: steer an industrial robot to hammer a mechanical stapler</div>
<div>b) low power way: emit a bluetooth command to an electric stapler, which has a tiny motor just powerful enough to drive a staple.</div>
<div>Similarly for many tasks with equipment - just emit bluetooth commands.</div>
<div>Perhaps where VR can come in handy: by providing a simpler intuitive interface to a plethora of self-powered wireless devices.</div>
<div>For example, in VR you would use a virtual pointer to point at the stapler, as if you were going to pound a mechanical stapler. That would be translated into bluetooth commands the electric stapler can understand to drive a staple.<br>
</div>
<div><br>
</div>
<div>Similarly for pushing wheelchairs in a hospital to substitute for infected personnel: </div>
<div>a) high power way: command a large walking humanoid robot to push the wheel chair</div>
<div>b) low power way - emit blutooth commands to an electric wheelchair which has tiny motors on each wheel.</div>
<div>And VR could simplify the interface, by clicking on the wheel chair, then a chain of points on the floor -a path- and the wheelchair would drive itself.</div>
<div>-Doug</div>
</div>
<br>
<div>
<div dir="ltr">On Fri, Apr 10, 2020 at 12:24 PM GPU Group <<a href="mailto:gpugroup@gmail.com" target="_blank">gpugroup@gmail.com</a>> wrote:<br>
</div>
<blockquote style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
<div dir="ltr">Wow - you've done some great things Nicholas, so interesting.
<div>-Doug</div>
<div><br>
</div>
<div>Q. what's missing from VR - what's holding it back from solving all the world's problems?</div>
<div>H: weak on outputs:</div>
<div>- great for input devices and building a virtual world and entering the virtual world and perhaps even solving problems in the virtual world. </div>
<div>x but weak on getting the virtual world results back out to do work in the real world</div>
<div>If so then perhaps this is the next things to work on.</div>
<div>And I can think of a few problems:</div>
<div>1) the real world has a way of updating itself, so keeping virtual world version synced is one challenge</div>
<div>2) output devices - robot arms tend to be expensive, and the more power they have, the more dangerous they are, so safety precautions </div>
<div>I can think of some nodes for #1, but not used to thinking about #2, I draw a blank</div>
<div><br>
</div>
</div>
<br>
<div>
<div dir="ltr">On Fri, Apr 10, 2020 at 11:41 AM Nicholas Polys <<a href="mailto:npolys@vt.edu" target="_blank">npolys@vt.edu</a>> wrote:<br>
</div>
<blockquote style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
<div dir="ltr">The User Body is an abstraction we developed with IGD as part of 
<div><br>
<div><span><b><span style="font-size:11pt;font-family:Calibri,sans-serif">Polys, Nicholas</span></b><span style="font-size:11pt;font-family:Calibri,sans-serif"> and Brutzman, Don and Steed, Anthony and Behr, Johannes. (2008). “Future Standards for Immersive
 VR:  Report on the IEEE VR 2007 Workshop<i>”.</i> <u>IEEE Computers Graphics & Applications
</u>Vol. 28, Number 2, IEEE Computer Society, 2008.</span></span> </div>
<div>   <br>
</div>
</div>
<div>It is described in detail in the </div>
<div>Interaction section of  the Instant Player Tutorials site </div>
<div><a href="https://nam04.safelinks.protection.outlook.com/?url=http%3A%2F%2Fdoc.instantreality.org%2Ftutorial%2F&data=02%7C01%7CLIU_F%40mercer.edu%7Ca4b6f1e45aec4ba84ba108d7dd90d329%7C4fb34d2889b247109bcc30824d17fc30%7C0%7C0%7C637221486406690418&sdata=mj7MpnDD2lnRoHV9E26%2F%2BvgMWkZyfNB0MsZbv4QmNH0%3D&reserved=0" target="_blank">http://doc.instantreality.org/tutorial/</a> </div>
<div><br>
</div>
<div> We use it to run X3D in our CAVE system and use our 6DOF Wand  and picking<br>
</div>
<div><br>
</div>
<div>with  best regards,</div>
<div>_n_polys</div>
<div><br>
</div>
</div>
<br>
<div>
<div dir="ltr">On Fri, Apr 10, 2020 at 1:26 PM GPU Group <<a href="mailto:gpugroup@gmail.com" target="_blank">gpugroup@gmail.com</a>> wrote:<br>
</div>
<blockquote style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
<div dir="ltr">Yes looks good. Web3d covid-19 response: create some new nodes for it.
<div>-Doug</div>
<div>related thoughts:</div>
<div>
<p style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">
<br>
</p>
<p style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">
UserBody extension</p>
<p style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">
- interesting and reminded me a bit of the 3Dmouse/spacemouse</p>
<p style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">
 <a href="https://nam04.safelinks.protection.outlook.com/?url=https%3A%2F%2Fwww.3dconnexion.com%2Fproducts%2Fspacemouse.html&data=02%7C01%7CLIU_F%40mercer.edu%7Ca4b6f1e45aec4ba84ba108d7dd90d329%7C4fb34d2889b247109bcc30824d17fc30%7C0%7C0%7C637221486406690418&sdata=GVWNMe7%2BfjR9ainWKY4IztYDiVc%2BbF1pVeJSKoDVmK8%3D&reserved=0" style="color:blue" target="_blank">https://www.3dconnexion.com/products/spacemouse.html</a> </p>
<p style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">
issue: if it's 3rd person, it can be hard to follow, for example</p>
<p style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">
<a href="https://nam04.safelinks.protection.outlook.com/?url=https%3A%2F%2Fwww.youtube.com%2Fwatch%3Fv%3DUC6suYVm60s&data=02%7C01%7CLIU_F%40mercer.edu%7Ca4b6f1e45aec4ba84ba108d7dd90d329%7C4fb34d2889b247109bcc30824d17fc30%7C0%7C0%7C637221486406700411&sdata=1CUyGpGYqfcdt0oCpXrf9GyVelLxeHtak1tL0ATrE9s%3D&reserved=0" target="_blank">https://www.youtube.com/watch?v=UC6suYVm60s</a> <br>
- the soccer players are wearing HMDs. The HMDs show the soccer field from above - that's all they see. That's like a 3rd person shooter.<br>
As they look down on the field from 3rd person, they have to figure out how to move from first-person.<br>
</p>
<p style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">
<br>
</p>
<p style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">
To avoid that 3rd-person problem while decoupling the viewpiont from UserBody ray-casting and collision,  UserBody can still be coupled to the avatar travel/pose -like your arms are attached to your body- so move with the avatar / relative to the avatar. That
 might not be a requirement of any UserBody nodes, but might be how they are easiest to use.</p>
<p style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">
<br>
</p>
<p style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">
Maybe a first step is to develop some emulators / simulators for various new types of input devices to control UserBody.</p>
<p style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">
<br>
</p>
<p style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">
more...</p>
<div>Multitouch x3d</div>
<div>In freewrl I have WM_TOUCH windows 7-10 style independent (non-gesture) touch events being handled independently / non-gesture-wise in windows version, and in such a way you can drag multiple drag sensors simultaneously - a touchID is associated with each drag
 during its life (and touchIDs can be recycled).</div>
<div><br>
</div>
<div>Multitouch Emulation for X3D</div>
<div> Freewrl -all platforms- has a built-in multi-touch emulator (current develop branch commandline --touchtype 1 or options panel),</div>
<div>- to use, with mouse, RMB-right-mouse-button-click to create a new touch/drag LMB to drag it, and another RMB to delete it. Can create several and have them in various drag states using regular mouse.</div>
<div><br>
</div>
<div>General Multitouch emulation for windows 10</div>
<div>for win10 I developed a touchServer and touchSender for emulating a multi-touch device on a 2nd computer and the server via tcp injects the touches into the desktop for any application</div>
<div><br>
</div>
<div>Multi-touch application</div>
<div>I had developed a play game for kids for a (now obsolete) kids mutlitouch table</div>
<div>
<p style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">
<a href="https://nam04.safelinks.protection.outlook.com/?url=https%3A%2F%2Fsupport.smarttech.com%2Fhardware%2Fother-hardware%2Ftables&data=02%7C01%7CLIU_F%40mercer.edu%7Ca4b6f1e45aec4ba84ba108d7dd90d329%7C4fb34d2889b247109bcc30824d17fc30%7C0%7C0%7C637221486406700411&sdata=D53czbwljxKcC7Fj7Rzj1vy8R3a5KR8V86DCafuHywQ%3D&reserved=0" style="color:blue" target="_blank">https://support.smarttech.com/hardware/other-hardware/tables</a> </p>
<p style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">
for organic chemistry - assembling carbon atom chains - not in x3d, they had their own API - and could have up to 16 simaltaneous touches/drags.</p>
<p style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">
</p>
</div>
</div>
<div><br>
</div>
</div>
<br>
<div>
<div dir="ltr">On Fri, Apr 10, 2020 at 9:38 AM Nicholas Polys <<a href="mailto:npolys@vt.edu" target="_blank">npolys@vt.edu</a>> wrote:<br>
</div>
<blockquote style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
<div dir="ltr"><br>
<div><br>
</div>
<div>wondering if this is appropriate for X3D 4.0</div>
<div><br>
</div>
<div><a href="https://nam04.safelinks.protection.outlook.com/?url=https%3A%2F%2Fdl.acm.org%2Fdoi%2Fabs%2F10.1145%2F1394209.1394218&data=02%7C01%7CLIU_F%40mercer.edu%7Ca4b6f1e45aec4ba84ba108d7dd90d329%7C4fb34d2889b247109bcc30824d17fc30%7C0%7C0%7C637221486406710405&sdata=gUjMCIlKlzej5aqWxOhxjX98KpfMpL2gvM8uVRmJ%2FiE%3D&reserved=0" target="_blank">https://dl.acm.org/doi/abs/10.1145/1394209.1394218</a> </div>
<div> <br>
</div>
</div>
<br>
<div>
<div dir="ltr">On Fri, Apr 10, 2020 at 9:04 AM GPU Group <<a href="mailto:gpugroup@gmail.com" target="_blank">gpugroup@gmail.com</a>> wrote:<br>
</div>
<blockquote style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
<div dir="ltr">COVID-19 > social distancing > teleworking > tools for teleworking > telepresence / teletravel / remote work
<div>Economies are taking big hits from the social distancing measures - in the trillions globally.</div>
<div>So if there was some ways to work better from a distance, that would have benefits:</div>
<div>- reduce spread rate of transmissible diseases that kill people</div>
<div>- reduce the cost to society of transportation</div>
<div>- keep economy going during strict social distancing 'lockdowns' </div>
<div>-- and reduce the cost to governments of social programs to support unemployed workers</div>
<div>- keep key essential workers employed while waiting for test results</div>
<div>- reduce GHG emissions / co-benefits of meeting Paris and net-zero-2050 early</div>
<div>But what precisely, and how relate to web3d?</div>
<div>-Doug Sanden</div>
<div>some of my old thoughts:</div>
<div>
<div><a href="https://nam04.safelinks.protection.outlook.com/?url=https%3A%2F%2Fsites.google.com%2Fsite%2Fcommutar%2Fhome%2Ftelerobotics&data=02%7C01%7CLIU_F%40mercer.edu%7Ca4b6f1e45aec4ba84ba108d7dd90d329%7C4fb34d2889b247109bcc30824d17fc30%7C0%7C0%7C637221486406720403&sdata=an5ZQfN2MglYrdM0nHCH6d%2F0xzcDyVUPHyocPyOyCHM%3D&reserved=0" target="_blank">https://sites.google.com/site/commutar/home/telerobotics</a> </div>
<div><a href="https://nam04.safelinks.protection.outlook.com/?url=https%3A%2F%2Fsites.google.com%2Fsite%2Fcommutar%2Fhome%2Ftelepresence&data=02%7C01%7CLIU_F%40mercer.edu%7Ca4b6f1e45aec4ba84ba108d7dd90d329%7C4fb34d2889b247109bcc30824d17fc30%7C0%7C0%7C637221486406720403&sdata=7Jn0fw2%2FaDqtiuuMYlrrw0U3F6yp8urBuPxkF7e3Slc%3D&reserved=0" target="_blank">https://sites.google.com/site/commutar/home/telepresence</a> <br>
</div>
<div></div>
</div>
</div>
<br>
<div>
<div dir="ltr">On Thu, Apr 9, 2020 at 10:48 PM Feng Liu <<a href="mailto:LIU_F@mercer.edu" target="_blank">LIU_F@mercer.edu</a>> wrote:<br>
</div>
<blockquote style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
<br>
Web3DUX Group Meeting minutes<br>
Date: April 8, 2020<br>
Attendees: Amela Sadagic, Don Brutzman, Richard F. Puk and Feng Liu<br>
Regrets: Nicholas Polys; <br>
<br>
Items discussed:<br>
1. COVID-19 and Current Web3D / X3D contributions discussion:<br>
- Everyone attended the meeting are doing well.<br>
- NIH 3D print exchange site – enable X3D view in<br>
a browser: <a href="https://nam04.safelinks.protection.outlook.com/?url=https%3A%2F%2F3dprint.nih.gov%2Fdiscover%2F3dpx%2F013429%2Fx3d&data=02%7C01%7CLIU_F%40mercer.edu%7Ca4b6f1e45aec4ba84ba108d7dd90d329%7C4fb34d2889b247109bcc30824d17fc30%7C0%7C0%7C637221486406730396&sdata=IUKhA7fYk71r5nSA5XVqaCShoC8nyROOkpbxzpjTbGo%3D&reserved=0" rel="noreferrer" target="_blank">
https://3dprint.nih.gov/discover/3dpx/013429/x3d</a> <br>
- America made provide a platform publishing 3D design of the fighting COVID-19 supplies:
<a href="https://nam04.safelinks.protection.outlook.com/?url=https%3A%2F%2Fwww.americamakes.us%2F&data=02%7C01%7CLIU_F%40mercer.edu%7Ca4b6f1e45aec4ba84ba108d7dd90d329%7C4fb34d2889b247109bcc30824d17fc30%7C0%7C0%7C637221486406730396&sdata=3Tg3elUbPA%2F3GcWoGlSAJ7NYl5vC7HTUlkOd55%2FvGJQ%3D&reserved=0" rel="noreferrer" target="_blank">
https://www.americamakes.us/</a>    <br>
- Amela’s team is working on optimizing the 3D model with a goal of improving usability. There are many factors (adoption procedure and policy, etc.) involved before a mask/a design got approval<br>
- Feng expressed her interest in inviting her summer students to participate in the effort.
<br>
- Don reminded us to align the working group's long term goals with the current effort of the involvement of fighting COVID-19. To identify Web3D + UX research opportunities with the involvements.
<br>
- Feng is going to looking for COVID-19 research<br>
funding opportunities regarding Web3D and UX areas. <br>
<br>
2. Update the report from the last meeting. No progress on the following items so far<br>
- Due to COVID-19 impact. The following item still needs to be done. <br>
- Review Publications on Three types of interactions <br>
-- Create a folder in one drive – share with you all to collect Literature Review Publications on Three types of interactions – Feng (Done)<br>
-- Develop a spreadsheet to categorize the subjects with the papers we review  - Amela. 
<br>
-- List an “other” category for other UX related topics <br>
-- Collecting papers and put them into different categories – Amela and Feng<br>
-- Collect data/currents publications/papers and authors to invite to the group for later<br>
<br>
<br>
<br>
<br>
<br>
<br>
_______________________________________________<br>
x3d-public mailing list<br>
<a href="mailto:x3d-public@web3d.org" target="_blank">x3d-public@web3d.org</a><br>
<a href="https://nam04.safelinks.protection.outlook.com/?url=http%3A%2F%2Fweb3d.org%2Fmailman%2Flistinfo%2Fx3d-public_web3d.org&data=02%7C01%7CLIU_F%40mercer.edu%7Ca4b6f1e45aec4ba84ba108d7dd90d329%7C4fb34d2889b247109bcc30824d17fc30%7C0%7C0%7C637221486406740392&sdata=cSJlFwpGQug5cTOAW0cVcJgQ42hYdy7vS6%2FdcIuK6NY%3D&reserved=0" rel="noreferrer" target="_blank">http://web3d.org/mailman/listinfo/x3d-public_web3d.org</a><br>
</blockquote>
</div>
_______________________________________________<br>
x3d-public mailing list<br>
<a href="mailto:x3d-public@web3d.org" target="_blank">x3d-public@web3d.org</a><br>
<a href="https://nam04.safelinks.protection.outlook.com/?url=http%3A%2F%2Fweb3d.org%2Fmailman%2Flistinfo%2Fx3d-public_web3d.org&data=02%7C01%7CLIU_F%40mercer.edu%7Ca4b6f1e45aec4ba84ba108d7dd90d329%7C4fb34d2889b247109bcc30824d17fc30%7C0%7C0%7C637221486406740392&sdata=cSJlFwpGQug5cTOAW0cVcJgQ42hYdy7vS6%2FdcIuK6NY%3D&reserved=0" rel="noreferrer" target="_blank">http://web3d.org/mailman/listinfo/x3d-public_web3d.org</a><br>
</blockquote>
</div>
<br clear="all">
<div><br>
</div>
-- <br>
<div dir="ltr">Nicholas F. Polys, Ph.D.<br>
<br>
Director of Visual Computing <br>
Virginia Tech Research Computing <br>
<br>
Affiliate Professor<br>
Virginia Tech Department of Computer Science<br>
</div>
</blockquote>
</div>
</blockquote>
</div>
<br clear="all">
<div><br>
</div>
-- <br>
<div dir="ltr">Nicholas F. Polys, Ph.D.<br>
<br>
Director of Visual Computing <br>
Virginia Tech Research Computing <br>
<br>
Affiliate Professor<br>
Virginia Tech Department of Computer Science<br>
</div>
</blockquote>
</div>
</blockquote>
</div>
</div>
</div>

</blockquote></div>
</blockquote></div>
</blockquote></div>