<div dir="ltr">LOW POWER OUTPUTS<div>Instead of human-size robot arms to do remotely what humans want, many devices now have their own low-power self-contained motors right-sized for each job.</div><div>Imagining stapling 2 pages together at the office, done from home. </div><div>a) high power way: steer an industrial robot to hammer a mechanical stapler</div><div>b) low power way: emit a bluetooth command to an electric stapler, which has a tiny motor just powerful enough to drive a staple.</div><div>Similarly for many tasks with equipment - just emit bluetooth commands.</div><div>Perhaps where VR can come in handy: by providing a simpler intuitive interface to a plethora of self-powered wireless devices.</div><div>For example, in VR you would use a virtual pointer to point at the stapler, as if you were going to pound a mechanical stapler. That would be translated into bluetooth commands the electric stapler can understand to drive a staple.<br></div><div><br></div><div>Similarly for pushing wheelchairs in a hospital to substitute for infected personnel: </div><div>a) high power way: command a large walking humanoid robot to push the wheel chair</div><div>b) low power way - emit blutooth commands to an electric wheelchair which has tiny motors on each wheel.</div><div>And VR could simplify the interface, by clicking on the wheel chair, then a chain of points on the floor -a path- and the wheelchair would drive itself.</div><div>-Doug</div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, Apr 10, 2020 at 12:24 PM GPU Group <<a href="mailto:gpugroup@gmail.com">gpugroup@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">Wow - you've done some great things Nicholas, so interesting.<div>-Doug</div><div><br></div><div>Q. what's missing from VR - what's holding it back from solving all the world's problems?</div><div>H: weak on outputs:</div><div>- great for input devices and building a virtual world and entering the virtual world and perhaps even solving problems in the virtual world. </div><div>x but weak on getting the virtual world results back out to do work in the real world</div><div>If so then perhaps this is the next things to work on.</div><div>And I can think of a few problems:</div><div>1) the real world has a way of updating itself, so keeping virtual world version synced is one challenge</div><div>2) output devices - robot arms tend to be expensive, and the more power they have, the more dangerous they are, so safety precautions </div><div>I can think of some nodes for #1, but not used to thinking about #2, I draw a blank</div><div><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, Apr 10, 2020 at 11:41 AM Nicholas Polys <<a href="mailto:npolys@vt.edu" target="_blank">npolys@vt.edu</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">The User Body is an abstraction we developed with IGD as part of <div><br><div><span><b><span style="font-size:11pt;font-family:Calibri,sans-serif">Polys, Nicholas</span></b><span style="font-size:11pt;font-family:Calibri,sans-serif"> and Brutzman, Don and Steed, Anthony and Behr,
Johannes. (2008). “Future Standards for Immersive VR:  Report on the IEEE VR 2007 Workshop<i>”.</i> <u>IEEE Computers Graphics & Applications </u>Vol. 28, Number
2, IEEE Computer Society, 2008.</span></span> </div><div>   <br></div></div><div>It is described in detail in the </div><div>Interaction section of  the Instant Player Tutorials site </div><div><a href="http://doc.instantreality.org/tutorial/" target="_blank">http://doc.instantreality.org/tutorial/</a> </div><div><br></div><div> We use it to run X3D in our CAVE system and use our 6DOF Wand  and picking<br></div><div><br></div><div>with  best regards,</div><div>_n_polys</div><div><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, Apr 10, 2020 at 1:26 PM GPU Group <<a href="mailto:gpugroup@gmail.com" target="_blank">gpugroup@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">Yes looks good. Web3d covid-19 response: create some new nodes for it.<div>-Doug</div><div>related thoughts:</div><div><p class="MsoNormal" style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana"><br></p><p class="MsoNormal" style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">UserBody extension</p><p class="MsoNormal" style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">- interesting and reminded me a bit of the 3Dmouse/spacemouse</p><p class="MsoNormal" style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana"> <a href="https://www.3dconnexion.com/products/spacemouse.html" style="color:blue" target="_blank">https://www.3dconnexion.com/products/spacemouse.html</a> </p><p class="MsoNormal" style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">issue: if it's 3rd person, it can be hard to follow, for example</p><p class="MsoNormal" style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana"><a href="https://www.youtube.com/watch?v=UC6suYVm60s" target="_blank">https://www.youtube.com/watch?v=UC6suYVm60s</a> <br>- the soccer players are wearing HMDs. The HMDs show the soccer field from above - that's all they see. That's like a 3rd person shooter.<br>As they look down on the field from 3rd person, they have to figure out how to move from first-person.<br></p><p class="MsoNormal" style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana"><br></p><p class="MsoNormal" style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">To avoid that 3rd-person problem while decoupling the viewpiont from UserBody ray-casting and collision,  UserBody can still be coupled to the avatar travel/pose -like your arms are attached to your body- so move with the avatar / relative to the avatar. That might not be a requirement of any UserBody nodes, but might be how they are easiest to use.</p><p class="MsoNormal" style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana"><br></p><p class="MsoNormal" style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">Maybe a first step is to develop some emulators / simulators for various new types of input devices to control UserBody.</p><p class="MsoNormal" style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana"><br></p><p class="MsoNormal" style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">more...</p><div>Multitouch x3d</div><div>In freewrl I have WM_TOUCH windows 7-10 style independent (non-gesture) touch events being handled independently / non-gesture-wise in windows version, and in such a way you can drag multiple drag sensors simultaneously - a touchID is associated with each drag during its life (and touchIDs can be recycled).</div><div><br></div><div>Multitouch Emulation for X3D</div><div> Freewrl -all platforms- has a built-in multi-touch emulator (current develop branch commandline --touchtype 1 or options panel),</div><div>- to use, with mouse, RMB-right-mouse-button-click to create a new touch/drag LMB to drag it, and another RMB to delete it. Can create several and have them in various drag states using regular mouse.</div><div><br></div><div>General Multitouch emulation for windows 10</div><div>for win10 I developed a touchServer and touchSender for emulating a multi-touch device on a 2nd computer and the server via tcp injects the touches into the desktop for any application</div><div><br></div><div>Multi-touch application</div><div>I had developed a play game for kids for a (now obsolete) kids mutlitouch table</div><div><p class="MsoNormal" style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana"><a href="https://support.smarttech.com/hardware/other-hardware/tables" style="color:blue" target="_blank">https://support.smarttech.com/hardware/other-hardware/tables</a> </p><p class="MsoNormal" style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana">for organic chemistry - assembling carbon atom chains - not in x3d, they had their own API - and could have up to 16 simaltaneous touches/drags.</p><p class="MsoNormal" style="margin:0cm 0cm 0.0001pt;font-size:10pt;font-family:Verdana"></p></div></div><div><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, Apr 10, 2020 at 9:38 AM Nicholas Polys <<a href="mailto:npolys@vt.edu" target="_blank">npolys@vt.edu</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><br><div><br></div><div>wondering if this is appropriate for X3D 4.0</div><div><br></div><div><a href="https://dl.acm.org/doi/abs/10.1145/1394209.1394218" target="_blank">https://dl.acm.org/doi/abs/10.1145/1394209.1394218</a> </div><div> <br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, Apr 10, 2020 at 9:04 AM GPU Group <<a href="mailto:gpugroup@gmail.com" target="_blank">gpugroup@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">COVID-19 > social distancing > teleworking > tools for teleworking > telepresence / teletravel / remote work<div>Economies are taking big hits from the social distancing measures - in the trillions globally.</div><div>So if there was some ways to work better from a distance, that would have benefits:</div><div>- reduce spread rate of transmissible diseases that kill people</div><div>- reduce the cost to society of transportation</div><div>- keep economy going during strict social distancing 'lockdowns' </div><div>-- and reduce the cost to governments of social programs to support unemployed workers</div><div>- keep key essential workers employed while waiting for test results</div><div>- reduce GHG emissions / co-benefits of meeting Paris and net-zero-2050 early</div><div>But what precisely, and how relate to web3d?</div><div>-Doug Sanden</div><div>some of my old thoughts:</div><div><div><a href="https://sites.google.com/site/commutar/home/telerobotics" target="_blank">https://sites.google.com/site/commutar/home/telerobotics</a> </div><div><a href="https://sites.google.com/site/commutar/home/telepresence" target="_blank">https://sites.google.com/site/commutar/home/telepresence</a> <br></div><div></div></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Thu, Apr 9, 2020 at 10:48 PM Feng Liu <<a href="mailto:LIU_F@mercer.edu" target="_blank">LIU_F@mercer.edu</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><br>
Web3DUX Group Meeting minutes<br>
Date: April 8, 2020<br>
Attendees: Amela Sadagic, Don Brutzman, Richard F. Puk and Feng Liu<br>
Regrets: Nicholas Polys; <br>
<br>
Items discussed:<br>
1. COVID-19 and Current Web3D / X3D contributions discussion:<br>
- Everyone attended the meeting are doing well.<br>
- NIH 3D print exchange site – enable X3D view in<br>
a browser: <a href="https://3dprint.nih.gov/discover/3dpx/013429/x3d" rel="noreferrer" target="_blank">https://3dprint.nih.gov/discover/3dpx/013429/x3d</a> <br>
- America made provide a platform publishing 3D design of the fighting COVID-19 supplies: <a href="https://www.americamakes.us/" rel="noreferrer" target="_blank">https://www.americamakes.us/</a>    <br>
- Amela’s team is working on optimizing the 3D model with a goal of improving usability. There are many factors (adoption procedure and policy, etc.) involved before a mask/a design got approval<br>
- Feng expressed her interest in inviting her summer students to participate in the effort. <br>
- Don reminded us to align the working group's long term goals with the current effort of the involvement of fighting COVID-19. To identify Web3D + UX research opportunities with the involvements. <br>
- Feng is going to looking for COVID-19 research<br>
funding opportunities regarding Web3D and UX areas. <br>
<br>
2. Update the report from the last meeting. No progress on the following items so far<br>
- Due to COVID-19 impact. The following item still needs to be done. <br>
- Review Publications on Three types of interactions <br>
-- Create a folder in one drive – share with you all to collect Literature Review Publications on Three types of interactions – Feng (Done)<br>
-- Develop a spreadsheet to categorize the subjects with the papers we review  - Amela.  <br>
-- List an “other” category for other UX related topics <br>
-- Collecting papers and put them into different categories – Amela and Feng<br>
-- Collect data/currents publications/papers and authors to invite to the group for later<br>
<br>
<br>
<br>
<br>
<br>
<br>
_______________________________________________<br>
x3d-public mailing list<br>
<a href="mailto:x3d-public@web3d.org" target="_blank">x3d-public@web3d.org</a><br>
<a href="http://web3d.org/mailman/listinfo/x3d-public_web3d.org" rel="noreferrer" target="_blank">http://web3d.org/mailman/listinfo/x3d-public_web3d.org</a><br>
</blockquote></div>
_______________________________________________<br>
x3d-public mailing list<br>
<a href="mailto:x3d-public@web3d.org" target="_blank">x3d-public@web3d.org</a><br>
<a href="http://web3d.org/mailman/listinfo/x3d-public_web3d.org" rel="noreferrer" target="_blank">http://web3d.org/mailman/listinfo/x3d-public_web3d.org</a><br>
</blockquote></div><br clear="all"><div><br></div>-- <br><div dir="ltr">Nicholas F. Polys, Ph.D.<br><br>Director of Visual Computing <br>Virginia Tech Research Computing <br><br>Affiliate Professor<br>Virginia Tech Department of Computer Science<br></div>
</blockquote></div>
</blockquote></div><br clear="all"><div><br></div>-- <br><div dir="ltr">Nicholas F. Polys, Ph.D.<br><br>Director of Visual Computing <br>Virginia Tech Research Computing <br><br>Affiliate Professor<br>Virginia Tech Department of Computer Science<br></div>
</blockquote></div>
</blockquote></div>