<div dir="ltr"><div dir="ltr"><div dir="ltr"><div>I've done VR HMD on android phone with x3d and a Google Cardboard headset. </div>AR is different -- Background is live stream from front facing camera?<div>That might need a special Background node?</div><div>Otherwise X3D doesn't usually interfere with custom navigation.</div><div>For the math to orient, in theory it takes 3 external points to be aligned to solve for 7 degrees of freedom (3 translations, 3 rotations, 1 scale), but with some known constraints such as which way is up, or scale, can shave a few degrees off and 2 points or 1 point and some distance adjustment can solve.</div><div><div>For example when orienting the scene to the real world, somehow you would press something to 'freeze' the x3d scene on the screen while the background is still moving,  then once you have the x3d scene aligned with the real world at that point release the button. Do that with one or 2 more points depending on how many degrees of freedom you ar solving.</div></div><div>-Doug</div></div></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Wed, May 11, 2022 at 11:15 AM Andreas Plesch <<a href="mailto:andreasplesch@gmail.com">andreasplesch@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">There is some interest in using WebXR for augmented reality (AR) on<br>
phones. WebXR is browser built in functionality to help with VR/AR and<br>
provides pose information (for phone/headset), or hit testing<br>
(locating a real object in the look direction).<br>
<br>
What are your thoughts on if X3D is useful for AR as it is and if<br>
there is opportunity or need for AR specific X3D nodes such as<br>
sensors, or navigation modes ?<br>
<br>
AR on the phone is meant as an overlay over the real world shown as a<br>
video feed background from the frontal camera. The overlay could be an<br>
X3D scene. The phone would act as a viewpoint, eg. one moves and looks<br>
around by moving and rotating the phone. This could become a new first<br>
person, non-mouse, non-touch, navigation mode ? Or is it just Walk<br>
mode for AR ?<br>
<br>
The primary AR modality requires registration of the virtual X3D world<br>
spatially to the video feed (the real world). This registration occurs<br>
naturally for geospatial X3D scenes. But for regular X3D scenes, an<br>
additional step is needed. Should this additional registration step<br>
become part of or facilitated by X3D ? WebXR has anchor objects which<br>
I think play a role here.<br>
<br>
A typical AR scenario is that you put virtual objects (a new sofa) in<br>
real space (your living room). That requires hit testing of real space<br>
to find locations. This capability is provided by AR devices. Since<br>
Touchsensor only works with the virtual scene, and not the real space,<br>
do we need another sensor ? For X3D, the real world feed would be<br>
equivalent to the X3D Background. So perhaps a BackgroundTouchSensor ?<br>
That only would make sense for AR. For desktop or VR such a sensor<br>
could switch to a "sense anything in the scene" mode, perhaps.<br>
<br>
Let's stop here. Can augmented, or mixed reality work with X3D in some<br>
standard way ?<br>
<br>
Cheers, Andreas<br>
<br>
<br>
<br>
-- <br>
Andreas Plesch<br>
Waltham, MA 02453<br>
<br>
_______________________________________________<br>
x3d-public mailing list<br>
<a href="mailto:x3d-public@web3d.org" target="_blank">x3d-public@web3d.org</a><br>
<a href="http://web3d.org/mailman/listinfo/x3d-public_web3d.org" rel="noreferrer" target="_blank">http://web3d.org/mailman/listinfo/x3d-public_web3d.org</a><br>
</blockquote></div>