<div><div dir="auto">So it sounds like we will be using SPARQL engine, with something like Alexa fronting it.   That is okay with me, as long as we have a large supply of appropriately indexed scenegraphs.</div></div><div dir="auto"><br></div><div dir="auto">Perhaps we should step back and examine my use cases for X3D?</div><div dir="auto"><br></div><div dir="auto">1.  Generate a virtual world with an appropriate level of entropy, possibly with a very basic assistant, ala Clippy, followed by transformations.   Ideally I would have a sliding sensor which would adjust the level of entropy.</div><div dir="auto"><br></div><div dir="auto">2.   Have a large supply of alternate scenegraphs at appropriate levels of entropy (LOE) or alternatively have a way to generate them on the fly.  See “No Man’s Sky.”</div><div dir="auto"><br></div><div dir="auto">3.  Support laser (coherent), incoherent (noise), and mixed lighting.   Adjust lighting with sensor.</div><div dir="auto"><br></div><div dir="auto">4. Provide for geometry to go from solid to liquid to gas and back controlled by sensor.</div><div dir="auto"><br></div><div dir="auto">5.  Modify objects that are procedurally generated to move from geometric to chaotic to stochastic to quantum generating equations.</div><div dir="auto"><br></div><div dir="auto">What I really want to do is *show* people what I’m thinking instead of just talking about it.   Right now it still seems best to talk about it.</div><div dir="auto"><br></div><div dir="auto">Beyond merely X3D, I would like to show this sliding entropy in language, emotion and HAnim.</div><div dir="auto"><br></div><div dir="auto">What’s at the root of this is generating a world with a mixture of order and disorder(chance).</div><div dir="auto"><br></div><div dir="auto"><br></div><div><div dir="auto">So it seems like I am still querying the ontology to see if such features as entropy, randomness, laser light etc exist.   Right now, it would seem like searching tooltips would be best.   How might I search for them with SPARQL or preferably Alexa?</div><div dir="auto"><br></div><div dir="auto">I have really mostly been on my rump.   I’m guessing if my nurse doesn’t get me my medication by tomorrow, I’m going to have a long night or two.</div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, Dec 30, 2019 at 5:49 PM Don Brutzman <<a href="mailto:brutzman@nps.edu">brutzman@nps.edu</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi John.<br>
<br>
Shifting this general discussion from <a href="mailto:semantics@web3d.org" target="_blank">semantics@web3d.org</a> (member-only meeting scheduling) to semantics-public list.<br>
<br>
I was referring to separate geometric ontology work being referred to on the CAD mailing list.  Some interesting references were posted there.<br>
<br>
Everything you describe sounds interesting but is far too abstract for me to ponder.  I think we get our best mileage out of focusing on:<br>
- performing X3D scene-graph queries (with a modest start) to produce properties of interest (needs work)<br>
- performing metadata queries (needs work)<br>
- performing multiple-namespace queries with other information (such as separately derived geometric properties) in combination with X3D triples.<br>
<br>
At that point we will be peeking up on the plateau of general 3D search.  For upcoming efforts, staying focused on improving X3D queries can best help.<br>
<br>
As quoted on the X3D Ontology page:<br>
<br>
* "The answer to your question is the response to the query." Jim Hendler and Dean Allemang<br>
<br>
... and a converse is true also, if your query can't get a response then maybe the question isn't well formed.  Suggest we stay focused on trying to "ask the right questions" using SPARQL and the X3D Ontology in order to best understand how to effectively apply it.<br>
<br>
So, for example, deconstructing "bouncy" might mean writing an X3D SPARQL queries for<br>
- "is there a PositionInterpolator that starts at one SFVec3f position with Y=0, goes up in +Y direction, then returns to Y=0 height."<br>
<br>
and moving on to "bouncing" would add something like<br>
- "is there a TimeSensor connecting the PositionInterpolator to a Transform via a set of ROUTEs?" and "is the TimeSensor triggered/active?" etc.<br>
<br>
Defining animation queries like these is certainly within the realm of the possible today.  Some would be great diagnostics.<br>
<br>
Sticking to practical measurable concepts like these seems quite valuable.  We don't need others agreement to characterize the essentials of what exists in X3D now.  There is a whole set of scene-graph model characteristics we might be able to figure out answerable queries like<br>
- what shapes share the same color?<br>
- what shapes are transparent?<br>
- what shapes are invisible due to scene-graph structure (hidden by Switch, follow-on child in ProtoBody, within LOD etc.)<br>
- what functional animation chains are present (optional trigger, TimeSensor, Interpolator/Sequencer, target node, connecting ROUTEs throughout)<br>
- what nonfunctional animation chains are present (i.e. Interpolator/Sequencer without the above)?<br>
- what functional/nonfunctional animation chains use a Script or ProtoInstance instead?<br>
- does metadata exist? do metadata nodes have references?<br>
- what shapes are red (green, blue, a certain color)<br>
- do any geometry nodes share the same coordinates?<br>
- are there any textures? any transformed textures?<br>
- are there any Viewpoint nodes?  Inline nodes? etc.<br>
- are there any (possibly insecure) url values with http vice https?<br>
- are there any url values with possibly insecure/blacklisted addresses?<br>
- are there any nodes present with missing (or perhaps only default) values?<br>
etc. etc.<br>
<br>
So, lots of practical inquiry lies ahead.  Have fun with X3D semantics!  8)<br>
<br>
<br>
On 12/30/2019 9:46 AM, John Carlson wrote:<br>
> Previously we said we are working on: "Reasoning and Inference inquiries include Structural, Conceptual, Functional and additional aspects of 3D models." May I suggest that Conceptual, which previously meant Spatial among other things, be moved up, and Symbolic or Sign (Semiotic might be okay) aspect be added below and a new Spatiotemporal aspect be added below. Conceptual will be above the other 4 aspects, and together, they all will be called "conceptual aspects." We can also think about adding metadata/querying for emotions by concept for various sound files, if not already present.<br>
> <br>
> <br>
> That said, people have different ideas of space.  My wife wouldn't even describe space to me.  Perhaps we should ask people to describe "space" before adding that aspect. I do know that people have very different ideas of time, but that X3D has very specific ideas.  Perhaps we should allow people to query space-time in their own ways, and provide a smorgasbord like approach?<br>
> <br>
> <br>
> I'm kind of fudging here, because the general theory of relativity has not been combined with the special theory of relativity.<br>
> <br>
> <br>
> I would encourage us to develop more concepts that are animation/emotion/spatiotemporal based, like "bouncy."<br>
> <br>
> <br>
> I'm not sure what the term functional means in this context (structural is to formal, as ??? is to functional).  I like behavioral or change. I think we should harken back to our mathematical roots for this one, and speak of relative position, velocity and acceleration: "Which car is the fastest going around checkpoint 5?" might be a query.<br>
> <br>
> <br>
> <br>
> On Mon, Dec 30, 2019 at 11:08 AM John Carlson <<a href="mailto:yottzumm@gmail.com" target="_blank">yottzumm@gmail.com</a> <mailto:<a href="mailto:yottzumm@gmail.com" target="_blank">yottzumm@gmail.com</a>>> wrote:<br>
> <br>
>     Well, I've been doing a bit of mathematical anthropology, looking at maps of mathematics. I would encourage us to look at these, and think about providing high-level microtheories based on these maps.<br>
> <br>
>     <a href="https://www.youtube.com/watch?v=OmJ-4B-mS-Y" rel="noreferrer" target="_blank">https://www.youtube.com/watch?v=OmJ-4B-mS-Y</a> (there are static versions as well)<br>
> <br>
>     Classifying geometry with topology may be interesting for search purposes.  How else might we use topology? <a href="https://images.app.goo.gl/8S8rjXvoHcAXVDAU7" rel="noreferrer" target="_blank">https://images.app.goo.gl/8S8rjXvoHcAXVDAU7</a><br>
> <br>
>     There are also maps of science, philosophy and physics which are likely too broad to cover just in one paper.<br>
> <br>
>     But coming down to mathematics, it appears that there are 4 main subject areas from pure mathematics in our ontologies found in the map of mathematics: structure, change, space, and symbol (numbers). I believe these should be top-level ontological objects, as follows  Structure for Geometry, Symbol for visual symbols, Change for Scripts, Routes, Animation and Interpolation, Space for manipulations with transforms.<br>
> <br>
>     Specifically, for structural output graphics, I would say there are 3 types of "topologies," namely, hypermovie, hypertext, hypershape and the parent hypermedia (we can have hypermovies of hypermovies, hyperdocuments and hypershapes, etc.)  I studied these 3 basic media types under PostScript first, using X/NeWS and printers.   We should also consider media like hypertactile, hypersmell, hypertaste, beyond hypersight and hyperhearing (hyperemotion anyone?).<br>
> <br>
>     Next I would like to study structural entropy.  How might structure&change like particle systems and classical physics be ontologized?  How might we explore levels of entropy?  There's perfect order, or pure mathematics, stochastic/chance/probabilistic order, chaotic order, and quantum order  (someone can put in forms of disorder if they like). How might we ontologize mixtures of order and chance?   Can we map "hurricane" or "earthquake" to graphics easily?<br>
> <br>
>     Frankly, I am not ready to crack open "Maps of Meaning" yet.<br>
> <br>
>     John<br>
> <br>
> <br>
> <br>
>     On Mon, Dec 30, 2019 at 9:21 AM Brutzman, Donald (Don) (CIV) <<a href="mailto:brutzman@nps.edu" target="_blank">brutzman@nps.edu</a> <mailto:<a href="mailto:brutzman@nps.edu" target="_blank">brutzman@nps.edu</a>>> wrote:<br>
> <br>
>         Am traveling today, unable to join.  Next week should be OK.<br>
> <br>
>         TODO items:<br>
>         - Add Jakub’s queries in IC3D paper to X3D Ontology suite<br>
>         - Add paper to archive<br>
>         - Post tweet if any photos might be available<br>
> <br>
>         Reviewing the recent documents on feasibility study of ontology for geometry and topology is really interesting and encouraging.  We have a lot of great things to do!<br>
> <br>
>         For our next meeting, let’s discuss what we want to do for Web3D 2020 in Seoul 24-26 JUN for greatest influence.  Paper, tutorial?<br>
>         <a href="https://www.web3d.org/event/web3d-2020-conference-seoul-korea" rel="noreferrer" target="_blank">https://www.web3d.org/event/web3d-2020-conference-seoul-korea</a><br>
> <br>
>         Thanks for a tremendous 2019, looking forward to a productive and Happy New Year together.  🧨💥😎👍<br>
> <br>
>         v/r Don<br>
> <br>
>         Sent from my handheld device<br>
>         -- <br>
>         semantics mailing list<br>
>         <a href="mailto:semantics@web3d.org" target="_blank">semantics@web3d.org</a> <mailto:<a href="mailto:semantics@web3d.org" target="_blank">semantics@web3d.org</a>><br>
>         <a href="http://web3d.org/mailman/listinfo/semantics_web3d.org" rel="noreferrer" target="_blank">http://web3d.org/mailman/listinfo/semantics_web3d.org</a><br>
<br>
<br>
all the best, Don<br>
-- <br>
Don Brutzman  Naval Postgraduate School, Code USW/Br       <a href="mailto:brutzman@nps.edu" target="_blank">brutzman@nps.edu</a><br>
Watkins 270,  MOVES Institute, Monterey CA 93943-5000 USA   +1.831.656.2149<br>
X3D graphics, virtual worlds, navy robotics <a href="http://faculty.nps.edu/brutzman" rel="noreferrer" target="_blank">http://faculty.nps.edu/brutzman</a><br>
</blockquote></div></div>