<div dir="ltr"><p class="MsoNormal" style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">updating virtual world in real time from real world on other end</p>

<p class="MsoNormal" style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana"><span style="font-size:10pt">1) a way to stream skeletal movements and
face-texture-patches / face gesture movements</span><br></p>

<p class="MsoNormal" style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana"><a href="https://sites.google.com/site/commutar/home/telepresence" style="color:blue">https://sites.google.com/site/commutar/home/telepresence</a>  </p>

<p class="MsoNormal" style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">- a way to track a face, scrape and send just the facial
texture patch, and head gestures</p>

<p class="MsoNormal" style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">- a way to patch a skin texture for incoming facial gestures</p>

<p class="MsoNormal" style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">- and pose head / body </p>

<p class="MsoNormal" style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">2) a way to steam 'oriented textures' to
compose/compile/patch/update a panorama in real-time as a remote camera pans
around</p>

<p class="MsoNormal" style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">- for situational awareness, and late-arriving image frames
are in correct 3D direction/pose</p>

<p class="MsoNormal" style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">3) a way to control things remotely ie camera panning,
remote telerobots</p>

<p class="MsoNormal" style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana"><span style="font-size:10pt">- cluster of nodes relating to AI, machine vision, operator
pose-sensing, and communication of pose, and feedback information </span><br></p>

<p class="MsoNormal" style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">-Doug Sanden</p>

<p class="MsoNormal" style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana"><br></p></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, Apr 10, 2020 at 5:37 PM GPU Group <<a href="mailto:gpugroup@gmail.com">gpugroup@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">VR as intermediary to other devices > audio receiving devices > smarthomeassistants > steering audio<div>- when we speak into a VR system, it may be necessary to steer the output audio in what I'll call a VR output device<div>- currently v4 specs are looking at what I think is steerable stereo audio output on the input device end</div></div><div>- that would need to be aimable on the output end, for example so you can tell a specific smarthomeassistant or other audio-activated device to do something, in such a way it knows its the one being ordered.</div><div><br></div><div>-Doug</div><div><br></div><div><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, Apr 10, 2020 at 4:02 PM Feng Liu <<a href="mailto:LIU_F@mercer.edu" target="_blank">LIU_F@mercer.edu</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">




<div dir="ltr">
<div style="font-family:Calibri,Arial,Helvetica,sans-serif;font-size:12pt;color:rgb(0,0,0)">
All brilliant ideas! There are definitely UX involves in the design and testing of those apps/AI robots.</div>
<div style="font-family:Calibri,Arial,Helvetica,sans-serif;font-size:12pt;color:rgb(0,0,0)">
Feng</div>
<div id="gmail-m_4204436118552789856gmail-m_-4722488295830262721appendonsend"></div>
<hr style="display:inline-block;width:98%">
<div id="gmail-m_4204436118552789856gmail-m_-4722488295830262721divRplyFwdMsg" dir="ltr"><font face="Calibri, sans-serif" style="font-size:11pt" color="#000000"><b>From:</b> GPU Group <<a href="mailto:gpugroup@gmail.com" target="_blank">gpugroup@gmail.com</a>><br>
<b>Sent:</b> Friday, April 10, 2020 4:50 PM<br>
<b>To:</b> Nicholas Polys <<a href="mailto:npolys@vt.edu" target="_blank">npolys@vt.edu</a>><br>
<b>Cc:</b> Feng Liu <<a href="mailto:LIU_F@mercer.edu" target="_blank">LIU_F@mercer.edu</a>>; Sadagic, Amela (CIV) <<a href="mailto:asadagic@nps.edu" target="_blank">asadagic@nps.edu</a>>; x3d-public@web3D.org <<a href="mailto:x3d-public@web3d.org" target="_blank">x3d-public@web3d.org</a>><br>
<b>Subject:</b> Re: [x3d-public] Web3DUX working group minutes 8 April 2020</font>
<div> </div>
</div>
<div>
<div dir="ltr">LOW POWER OUTPUTS
<div>Instead of human-size robot arms to do remotely what humans want, many devices now have their own low-power self-contained motors right-sized for each job.</div>
<div>Imagining stapling 2 pages together at the office, done from home. </div>
<div>a) high power way: steer an industrial robot to hammer a mechanical stapler</div>
<div>b) low power way: emit a bluetooth command to an electric stapler, which has a tiny motor just powerful enough to drive a staple.</div>
<div>Similarly for many tasks with equipment - just emit bluetooth commands.</div>
<div>Perhaps where VR can come in handy: by providing a simpler intuitive interface to a plethora of self-powered wireless devices.</div>
<div>For example, in VR you would use a virtual pointer to point at the stapler, as if you were going to pound a mechanical stapler. That would be translated into bluetooth commands the electric stapler can understand to drive a staple.<br>
</div>
<div><br>
</div>
<div>Similarly for pushing wheelchairs in a hospital to substitute for infected personnel: </div>
<div>a) high power way: command a large walking humanoid robot to push the wheel chair</div>
<div>b) low power way - emit blutooth commands to an electric wheelchair which has tiny motors on each wheel.</div>
<div>And VR could simplify the interface, by clicking on the wheel chair, then a chain of points on the floor -a path- and the wheelchair would drive itself.</div>
<div>-Doug</div>
</div>
<br>
<div>
<div dir="ltr">On Fri, Apr 10, 2020 at 12:24 PM GPU Group <<a href="mailto:gpugroup@gmail.com" target="_blank">gpugroup@gmail.com</a>> wrote:<br>
</div>
<blockquote style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
<div dir="ltr">Wow - you've done some great things Nicholas, so interesting.
<div>-Doug</div>
<div><br>
</div>
<div>Q. what's missing from VR - what's holding it back from solving all the world's problems?</div>
<div>H: weak on outputs:</div>
<div>- great for input devices and building a virtual world and entering the virtual world and perhaps even solving problems in the virtual world. </div>
<div>x but weak on getting the virtual world results back out to do work in the real world</div>
<div>If so then perhaps this is the next things to work on.</div>
<div>And I can think of a few problems:</div>
<div>1) the real world has a way of updating itself, so keeping virtual world version synced is one challenge</div>
<div>2) output devices - robot arms tend to be expensive, and the more power they have, the more dangerous they are, so safety precautions </div>
<div>I can think of some nodes for #1, but not used to thinking about #2, I draw a blank</div>
<div><br>
</div>
</div>
<br>
<div>
<div dir="ltr">On Fri, Apr 10, 2020 at 11:41 AM Nicholas Polys <<a href="mailto:npolys@vt.edu" target="_blank">npolys@vt.edu</a>> wrote:<br>
</div>
<blockquote style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
<div dir="ltr">The User Body is an abstraction we developed with IGD as part of 
<div><br>
<div><span><b><span style="font-size:11pt;font-family:Calibri,sans-serif">Polys, Nicholas</span></b><span style="font-size:11pt;font-family:Calibri,sans-serif"> and Brutzman, Don and Steed, Anthony and Behr, Johannes. (2008). “Future Standards for Immersive
 VR:  Report on the IEEE VR 2007 Workshop<i>”.</i> <u>IEEE Computers Graphics & Applications
</u>Vol. 28, Number 2, IEEE Computer Society, 2008.</span></span> </div>
<div>   <br>
</div>
</div>
<div>It is described in detail in the </div>
<div>Interaction section of  the Instant Player Tutorials site </div>
<div><a href="https://nam04.safelinks.protection.outlook.com/?url=http%3A%2F%2Fdoc.instantreality.org%2Ftutorial%2F&data=02%7C01%7CLIU_F%40mercer.edu%7Ca4b6f1e45aec4ba84ba108d7dd90d329%7C4fb34d2889b247109bcc30824d17fc30%7C0%7C0%7C637221486406690418&sdata=mj7MpnDD2lnRoHV9E26%2F%2BvgMWkZyfNB0MsZbv4QmNH0%3D&reserved=0" target="_blank">http://doc.instantreality.org/tutorial/</a> </div>
<div><br>
</div>
<div> We use it to run X3D in our CAVE system and use our 6DOF Wand  and picking<br>
</div>
<div><br>
</div>
<div>with  best regards,</div>
<div>_n_polys</div>
<div><br>
</div>
</div>
<br>
<div>
<div dir="ltr">On Fri, Apr 10, 2020 at 1:26 PM GPU Group <<a href="mailto:gpugroup@gmail.com" target="_blank">gpugroup@gmail.com</a>> wrote:<br>
</div>
<blockquote style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
<div dir="ltr">Yes looks good. Web3d covid-19 response: create some new nodes for it.
<div>-Doug</div>
<div>related thoughts:</div>
<div>
<p style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">
<br>
</p>
<p style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">
UserBody extension</p>
<p style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">
- interesting and reminded me a bit of the 3Dmouse/spacemouse</p>
<p style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">
 <a href="https://nam04.safelinks.protection.outlook.com/?url=https%3A%2F%2Fwww.3dconnexion.com%2Fproducts%2Fspacemouse.html&data=02%7C01%7CLIU_F%40mercer.edu%7Ca4b6f1e45aec4ba84ba108d7dd90d329%7C4fb34d2889b247109bcc30824d17fc30%7C0%7C0%7C637221486406690418&sdata=GVWNMe7%2BfjR9ainWKY4IztYDiVc%2BbF1pVeJSKoDVmK8%3D&reserved=0" style="color:blue" target="_blank">https://www.3dconnexion.com/products/spacemouse.html</a> </p>
<p style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">
issue: if it's 3rd person, it can be hard to follow, for example</p>
<p style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">
<a href="https://nam04.safelinks.protection.outlook.com/?url=https%3A%2F%2Fwww.youtube.com%2Fwatch%3Fv%3DUC6suYVm60s&data=02%7C01%7CLIU_F%40mercer.edu%7Ca4b6f1e45aec4ba84ba108d7dd90d329%7C4fb34d2889b247109bcc30824d17fc30%7C0%7C0%7C637221486406700411&sdata=1CUyGpGYqfcdt0oCpXrf9GyVelLxeHtak1tL0ATrE9s%3D&reserved=0" target="_blank">https://www.youtube.com/watch?v=UC6suYVm60s</a> <br>
- the soccer players are wearing HMDs. The HMDs show the soccer field from above - that's all they see. That's like a 3rd person shooter.<br>
As they look down on the field from 3rd person, they have to figure out how to move from first-person.<br>
</p>
<p style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">
<br>
</p>
<p style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">
To avoid that 3rd-person problem while decoupling the viewpiont from UserBody ray-casting and collision,  UserBody can still be coupled to the avatar travel/pose -like your arms are attached to your body- so move with the avatar / relative to the avatar. That
 might not be a requirement of any UserBody nodes, but might be how they are easiest to use.</p>
<p style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">
<br>
</p>
<p style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">
Maybe a first step is to develop some emulators / simulators for various new types of input devices to control UserBody.</p>
<p style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">
<br>
</p>
<p style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">
more...</p>
<div>Multitouch x3d</div>
<div>In freewrl I have WM_TOUCH windows 7-10 style independent (non-gesture) touch events being handled independently / non-gesture-wise in windows version, and in such a way you can drag multiple drag sensors simultaneously - a touchID is associated with each drag
 during its life (and touchIDs can be recycled).</div>
<div><br>
</div>
<div>Multitouch Emulation for X3D</div>
<div> Freewrl -all platforms- has a built-in multi-touch emulator (current develop branch commandline --touchtype 1 or options panel),</div>
<div>- to use, with mouse, RMB-right-mouse-button-click to create a new touch/drag LMB to drag it, and another RMB to delete it. Can create several and have them in various drag states using regular mouse.</div>
<div><br>
</div>
<div>General Multitouch emulation for windows 10</div>
<div>for win10 I developed a touchServer and touchSender for emulating a multi-touch device on a 2nd computer and the server via tcp injects the touches into the desktop for any application</div>
<div><br>
</div>
<div>Multi-touch application</div>
<div>I had developed a play game for kids for a (now obsolete) kids mutlitouch table</div>
<div>
<p style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">
<a href="https://nam04.safelinks.protection.outlook.com/?url=https%3A%2F%2Fsupport.smarttech.com%2Fhardware%2Fother-hardware%2Ftables&data=02%7C01%7CLIU_F%40mercer.edu%7Ca4b6f1e45aec4ba84ba108d7dd90d329%7C4fb34d2889b247109bcc30824d17fc30%7C0%7C0%7C637221486406700411&sdata=D53czbwljxKcC7Fj7Rzj1vy8R3a5KR8V86DCafuHywQ%3D&reserved=0" style="color:blue" target="_blank">https://support.smarttech.com/hardware/other-hardware/tables</a> </p>
<p style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">
for organic chemistry - assembling carbon atom chains - not in x3d, they had their own API - and could have up to 16 simaltaneous touches/drags.</p>
<p style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">
</p>
</div>
</div>
<div><br>
</div>
</div>
<br>
<div>
<div dir="ltr">On Fri, Apr 10, 2020 at 9:38 AM Nicholas Polys <<a href="mailto:npolys@vt.edu" target="_blank">npolys@vt.edu</a>> wrote:<br>
</div>
<blockquote style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
<div dir="ltr"><br>
<div><br>
</div>
<div>wondering if this is appropriate for X3D 4.0</div>
<div><br>
</div>
<div><a href="https://nam04.safelinks.protection.outlook.com/?url=https%3A%2F%2Fdl.acm.org%2Fdoi%2Fabs%2F10.1145%2F1394209.1394218&data=02%7C01%7CLIU_F%40mercer.edu%7Ca4b6f1e45aec4ba84ba108d7dd90d329%7C4fb34d2889b247109bcc30824d17fc30%7C0%7C0%7C637221486406710405&sdata=gUjMCIlKlzej5aqWxOhxjX98KpfMpL2gvM8uVRmJ%2FiE%3D&reserved=0" target="_blank">https://dl.acm.org/doi/abs/10.1145/1394209.1394218</a> </div>
<div> <br>
</div>
</div>
<br>
<div>
<div dir="ltr">On Fri, Apr 10, 2020 at 9:04 AM GPU Group <<a href="mailto:gpugroup@gmail.com" target="_blank">gpugroup@gmail.com</a>> wrote:<br>
</div>
<blockquote style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
<div dir="ltr">COVID-19 > social distancing > teleworking > tools for teleworking > telepresence / teletravel / remote work
<div>Economies are taking big hits from the social distancing measures - in the trillions globally.</div>
<div>So if there was some ways to work better from a distance, that would have benefits:</div>
<div>- reduce spread rate of transmissible diseases that kill people</div>
<div>- reduce the cost to society of transportation</div>
<div>- keep economy going during strict social distancing 'lockdowns' </div>
<div>-- and reduce the cost to governments of social programs to support unemployed workers</div>
<div>- keep key essential workers employed while waiting for test results</div>
<div>- reduce GHG emissions / co-benefits of meeting Paris and net-zero-2050 early</div>
<div>But what precisely, and how relate to web3d?</div>
<div>-Doug Sanden</div>
<div>some of my old thoughts:</div>
<div>
<div><a href="https://nam04.safelinks.protection.outlook.com/?url=https%3A%2F%2Fsites.google.com%2Fsite%2Fcommutar%2Fhome%2Ftelerobotics&data=02%7C01%7CLIU_F%40mercer.edu%7Ca4b6f1e45aec4ba84ba108d7dd90d329%7C4fb34d2889b247109bcc30824d17fc30%7C0%7C0%7C637221486406720403&sdata=an5ZQfN2MglYrdM0nHCH6d%2F0xzcDyVUPHyocPyOyCHM%3D&reserved=0" target="_blank">https://sites.google.com/site/commutar/home/telerobotics</a> </div>
<div><a href="https://nam04.safelinks.protection.outlook.com/?url=https%3A%2F%2Fsites.google.com%2Fsite%2Fcommutar%2Fhome%2Ftelepresence&data=02%7C01%7CLIU_F%40mercer.edu%7Ca4b6f1e45aec4ba84ba108d7dd90d329%7C4fb34d2889b247109bcc30824d17fc30%7C0%7C0%7C637221486406720403&sdata=7Jn0fw2%2FaDqtiuuMYlrrw0U3F6yp8urBuPxkF7e3Slc%3D&reserved=0" target="_blank">https://sites.google.com/site/commutar/home/telepresence</a> <br>
</div>
<div></div>
</div>
</div>
<br>
<div>
<div dir="ltr">On Thu, Apr 9, 2020 at 10:48 PM Feng Liu <<a href="mailto:LIU_F@mercer.edu" target="_blank">LIU_F@mercer.edu</a>> wrote:<br>
</div>
<blockquote style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
<br>
Web3DUX Group Meeting minutes<br>
Date: April 8, 2020<br>
Attendees: Amela Sadagic, Don Brutzman, Richard F. Puk and Feng Liu<br>
Regrets: Nicholas Polys; <br>
<br>
Items discussed:<br>
1. COVID-19 and Current Web3D / X3D contributions discussion:<br>
- Everyone attended the meeting are doing well.<br>
- NIH 3D print exchange site – enable X3D view in<br>
a browser: <a href="https://nam04.safelinks.protection.outlook.com/?url=https%3A%2F%2F3dprint.nih.gov%2Fdiscover%2F3dpx%2F013429%2Fx3d&data=02%7C01%7CLIU_F%40mercer.edu%7Ca4b6f1e45aec4ba84ba108d7dd90d329%7C4fb34d2889b247109bcc30824d17fc30%7C0%7C0%7C637221486406730396&sdata=IUKhA7fYk71r5nSA5XVqaCShoC8nyROOkpbxzpjTbGo%3D&reserved=0" rel="noreferrer" target="_blank">
https://3dprint.nih.gov/discover/3dpx/013429/x3d</a> <br>
- America made provide a platform publishing 3D design of the fighting COVID-19 supplies:
<a href="https://nam04.safelinks.protection.outlook.com/?url=https%3A%2F%2Fwww.americamakes.us%2F&data=02%7C01%7CLIU_F%40mercer.edu%7Ca4b6f1e45aec4ba84ba108d7dd90d329%7C4fb34d2889b247109bcc30824d17fc30%7C0%7C0%7C637221486406730396&sdata=3Tg3elUbPA%2F3GcWoGlSAJ7NYl5vC7HTUlkOd55%2FvGJQ%3D&reserved=0" rel="noreferrer" target="_blank">
https://www.americamakes.us/</a>    <br>
- Amela’s team is working on optimizing the 3D model with a goal of improving usability. There are many factors (adoption procedure and policy, etc.) involved before a mask/a design got approval<br>
- Feng expressed her interest in inviting her summer students to participate in the effort.
<br>
- Don reminded us to align the working group's long term goals with the current effort of the involvement of fighting COVID-19. To identify Web3D + UX research opportunities with the involvements.
<br>
- Feng is going to looking for COVID-19 research<br>
funding opportunities regarding Web3D and UX areas. <br>
<br>
2. Update the report from the last meeting. No progress on the following items so far<br>
- Due to COVID-19 impact. The following item still needs to be done. <br>
- Review Publications on Three types of interactions <br>
-- Create a folder in one drive – share with you all to collect Literature Review Publications on Three types of interactions – Feng (Done)<br>
-- Develop a spreadsheet to categorize the subjects with the papers we review  - Amela. 
<br>
-- List an “other” category for other UX related topics <br>
-- Collecting papers and put them into different categories – Amela and Feng<br>
-- Collect data/currents publications/papers and authors to invite to the group for later<br>
<br>
<br>
<br>
<br>
<br>
<br>
_______________________________________________<br>
x3d-public mailing list<br>
<a href="mailto:x3d-public@web3d.org" target="_blank">x3d-public@web3d.org</a><br>
<a href="https://nam04.safelinks.protection.outlook.com/?url=http%3A%2F%2Fweb3d.org%2Fmailman%2Flistinfo%2Fx3d-public_web3d.org&data=02%7C01%7CLIU_F%40mercer.edu%7Ca4b6f1e45aec4ba84ba108d7dd90d329%7C4fb34d2889b247109bcc30824d17fc30%7C0%7C0%7C637221486406740392&sdata=cSJlFwpGQug5cTOAW0cVcJgQ42hYdy7vS6%2FdcIuK6NY%3D&reserved=0" rel="noreferrer" target="_blank">http://web3d.org/mailman/listinfo/x3d-public_web3d.org</a><br>
</blockquote>
</div>
_______________________________________________<br>
x3d-public mailing list<br>
<a href="mailto:x3d-public@web3d.org" target="_blank">x3d-public@web3d.org</a><br>
<a href="https://nam04.safelinks.protection.outlook.com/?url=http%3A%2F%2Fweb3d.org%2Fmailman%2Flistinfo%2Fx3d-public_web3d.org&data=02%7C01%7CLIU_F%40mercer.edu%7Ca4b6f1e45aec4ba84ba108d7dd90d329%7C4fb34d2889b247109bcc30824d17fc30%7C0%7C0%7C637221486406740392&sdata=cSJlFwpGQug5cTOAW0cVcJgQ42hYdy7vS6%2FdcIuK6NY%3D&reserved=0" rel="noreferrer" target="_blank">http://web3d.org/mailman/listinfo/x3d-public_web3d.org</a><br>
</blockquote>
</div>
<br clear="all">
<div><br>
</div>
-- <br>
<div dir="ltr">Nicholas F. Polys, Ph.D.<br>
<br>
Director of Visual Computing <br>
Virginia Tech Research Computing <br>
<br>
Affiliate Professor<br>
Virginia Tech Department of Computer Science<br>
</div>
</blockquote>
</div>
</blockquote>
</div>
<br clear="all">
<div><br>
</div>
-- <br>
<div dir="ltr">Nicholas F. Polys, Ph.D.<br>
<br>
Director of Visual Computing <br>
Virginia Tech Research Computing <br>
<br>
Affiliate Professor<br>
Virginia Tech Department of Computer Science<br>
</div>
</blockquote>
</div>
</blockquote>
</div>
</div>
</div>

</blockquote></div>
</blockquote></div>