<div dir="auto">Joe,</div><div dir="auto"><br></div><div dir="auto">Thinking a bit about Interactive Self-Help now (remember Interactive Fiction like Inform and Zork?).  Have many primitives now.  HAnim is like the body parts, but what are mind parts, spiritual parts, soul parts.  How does one “nourish” parts, or as the the Buddhists say, “water the seeds you want to grow.”</div><div dir="auto"><br></div><div dir="auto">So the idea is that experts could sit down and design the “plugins” for self-help.  I don’t really really like to bring up Mindvalley, but their system seems to be working.</div><div dir="auto"><br></div><div dir="auto">Ultimately, with GPT-3, one could type in a sentence, and a self-help chapter would be generated by the system.</div><div dir="auto"><br></div><div dir="auto">John</div><div dir="auto"><br><div class="gmail_quote" dir="auto"><div dir="ltr" class="gmail_attr">On Fri, Oct 7, 2022 at 7:01 PM Joseph D Williams <<a href="mailto:joedwil@earthlink.net">joedwil@earthlink.net</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;padding-left:1ex;border-left-color:rgb(204,204,204)"><div lang="EN-US" link="blue" vlink="#954F72" style="word-wrap:break-word"><div class="m_-1853433367674880424WordSection1"><ul style="margin-top:0in" type="disc"><li class="m_-1853433367674880424MsoListParagraph" style="margin-left:0in">Graph Convolution Networks</li></ul><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal">Hi John, </p><p class="MsoNormal">Well, looking at ways of organizing paths and data in a live repository when </p><p class="MsoNormal">dealing with data, discovery, knowledge, and perhaps wisdom,  </p><p class="MsoNormal">along with descriptions of data and knowledge, </p><p class="MsoNormal">using representations of data, finding and showing relationships between elements and collections of data, </p><p class="MsoNormal">having dynamic, orderly, findable, predictable interactions with the collection, </p><p class="MsoNormal">obvious, appropriate planned and whimsical navigation within and outside of the current environment without getting lost,  </p><p class="MsoNormal">while controlling a live on the inside and awake to the outside versatile, extensible graphical structure, </p><p class="MsoNormal">then, what better than x3d realtime anytime scenegraph and internal/external sai.  </p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal">The key is you could do all basic functionality with x3d scenegraph using nothing but metadata. </p><p class="MsoNormal">Active or passive multisensory multimedia, in a way, are just add-in inhabitants for our beloved dag. </p><p class="MsoNormal">How do you improve this with ai? </p><p class="MsoNormal">Teach the ai to help you do input output add archive, structure, document, navigate, and interact with your current dynamic knowledge repository and other networks and graphs.  </p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal">It really is part of the fun with x3d,</p><p class="MsoNormal">Joe</p></div></div><div lang="EN-US" link="blue" vlink="#954F72" style="word-wrap:break-word"><div class="m_-1853433367674880424WordSection1"><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal"> </p><p class="MsoNormal"><u></u> <u></u></p><div style="border-style:solid none none;border-top-width:1pt;padding:3pt 0in 0in;border-top-color:rgb(225,225,225)"><p class="MsoNormal" style="border:none;padding:0in"><b>From: </b><a href="mailto:yottzumm@gmail.com" target="_blank">John Carlson</a><br><b>Sent: </b>Saturday, October 1, 2022 9:29 PM<br><b>To: </b><a href="mailto:joedwil@earthlink.net" target="_blank">Joe D Williams</a>; <a href="mailto:x3d-public@web3d.org" target="_blank">X3D Graphics public mailing list</a><br><b>Subject: </b>Re: Text-to-mesh</p></div><p class="MsoNormal"><u></u> <u></u></p><div><p class="MsoNormal">Ok.</p></div><div><p class="MsoNormal"><u></u> <u></u></p></div><div><p class="MsoNormal">I imagine some perhaps future tool where a prompt or description is given and a games/unreal/unity world/universe/metaverse is produced.  can we do this with VRML or XML?  I understand that XR may not initially be supported.</p></div><div><p class="MsoNormal"><u></u> <u></u></p></div><div><p class="MsoNormal">Originally, in 1986, I envisioned a description of games rules being converted to a game, with something like Cyc.</p></div><div><p class="MsoNormal"><u></u> <u></u></p></div><div><p class="MsoNormal">Eventually, I even wrote a crazy8s game using OpenCyc.  The product was way too slow.</p></div><div><p class="MsoNormal"><u></u> <u></u></p></div><div><p class="MsoNormal">I’ve also envisioned using version space algebra or EGGG or Ludii to do this.   I even wrote a card table top to record plays.  I tried to find commonalities between moves, but no supercomputer was available.</p></div><div><p class="MsoNormal"><u></u> <u></u></p></div><div><p class="MsoNormal">I guess i want to have an AI cache everything needed for the game, so interaction can be really fast.</p></div><div><p class="MsoNormal"><u></u> <u></u></p></div><div><p class="MsoNormal">Is the Web3D Consortium Standards/Metaverse Standards up to the task?</p></div><div><p class="MsoNormal"><u></u> <u></u></p></div><div><p class="MsoNormal">How does game mechanics link up with rendering?  Michalis?</p></div><div><p class="MsoNormal"><u></u> <u></u></p></div><div><p class="MsoNormal">John</p></div><div><p class="MsoNormal"><u></u> <u></u></p><div><div><p class="MsoNormal">On Sat, Oct 1, 2022 at 10:34 PM John Carlson <<a href="mailto:yottzumm@gmail.com" target="_blank">yottzumm@gmail.com</a>> wrote:</p></div><blockquote style="border-style:none none none solid;border-left-width:1pt;padding:0in 0in 0in 6pt;margin-left:4.8pt;margin-right:0in;border-left-color:rgb(204,204,204)"><div><p class="MsoNormal">Even as a start, semantics metadata to image or video would be a start.   I’m not sure what’s possible with Graph Convolution Networks (GCNs).</p></div><div><p class="MsoNormal"><u></u> <u></u></p></div><div><p class="MsoNormal">John</p></div><div><p class="MsoNormal"><u></u> <u></u></p><div><div><p class="MsoNormal">On Sat, Oct 1, 2022 at 9:17 PM John Carlson <<a href="mailto:yottzumm@gmail.com" target="_blank">yottzumm@gmail.com</a>> wrote:</p></div><blockquote style="border-style:none none none solid;border-left-width:1pt;padding:0in 0in 0in 6pt;margin-left:4.8pt;margin-right:0in;border-left-color:rgb(204,204,204)"><div><p class="MsoNormal">I realize image-to-3D and video-to-3D may be possible already.</p></div><div><p class="MsoNormal"><u></u> <u></u></p></div><div><p class="MsoNormal">John</p></div><div><p class="MsoNormal"><u></u> <u></u></p><div><div><p class="MsoNormal">On Sat, Oct 1, 2022 at 9:05 PM John Carlson <<a href="mailto:yottzumm@gmail.com" target="_blank">yottzumm@gmail.com</a>> wrote:</p></div><blockquote style="border-style:none none none solid;border-left-width:1pt;padding:0in 0in 0in 6pt;margin-left:4.8pt;margin-right:0in;border-left-color:rgb(204,204,204)"><p class="MsoNormal">Now with prompt engineering, we can do text-to-image and text-to-video.   Now, how about text(description)-to-mesh, text(description)-to-shape, text(description)-to-scene, or even text(description)-to-world?</p><div><p class="MsoNormal"><u></u> <u></u></p></div><div><p class="MsoNormal">Can semantics help this?</p></div><div><p class="MsoNormal"><u></u> <u></u></p></div></blockquote></div></div></blockquote></div></div></blockquote></div></div><p class="MsoNormal" style="margin-left:0.2in">John</p><p class="MsoNormal"><u></u> <u></u></p></div></div></blockquote></div></div>