<div dir="auto">Ok.</div><div dir="auto"><br></div><div dir="auto">I imagine some perhaps future tool where a prompt or description is given and a games/unreal/unity world/universe/metaverse is produced.  can we do this with VRML or XML?  I understand that XR may not initially be supported.</div><div dir="auto"><br></div><div dir="auto">Originally, in 1986, I envisioned a description of games rules being converted to a game, with something like Cyc.</div><div dir="auto"><br></div><div dir="auto">Eventually, I even wrote a crazy8s game using OpenCyc.  The product was way too slow.</div><div dir="auto"><br></div><div dir="auto">I’ve also envisioned using version space algebra or EGGG or Ludii to do this.   I even wrote a card table top to record plays.  I tried to find commonalities between moves, but no supercomputer was available.</div><div dir="auto"><br></div><div dir="auto">I guess i want to have an AI cache everything needed for the game, so interaction can be really fast.</div><div dir="auto"><br></div><div dir="auto">Is the Web3D Consortium Standards/Metaverse Standards up to the task?</div><div dir="auto"><br></div><div dir="auto">How does game mechanics link up with rendering?  Michalis?</div><div dir="auto"><br></div><div dir="auto">John</div><div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sat, Oct 1, 2022 at 10:34 PM John Carlson <<a href="mailto:yottzumm@gmail.com">yottzumm@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;padding-left:1ex;border-left-color:rgb(204,204,204)"><div dir="auto">Even as a start, semantics metadata to image or video would be a start.   I’m not sure what’s possible with Graph Convolution Networks (GCNs).</div><div dir="auto"><br></div><div dir="auto">John</div><div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sat, Oct 1, 2022 at 9:17 PM John Carlson <<a href="mailto:yottzumm@gmail.com" target="_blank">yottzumm@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;padding-left:1ex;border-left-color:rgb(204,204,204)"><div dir="auto">I realize image-to-3D and video-to-3D may be possible already.</div><div dir="auto"><br></div><div dir="auto">John</div><div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sat, Oct 1, 2022 at 9:05 PM John Carlson <<a href="mailto:yottzumm@gmail.com" target="_blank">yottzumm@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;padding-left:1ex;border-left-color:rgb(204,204,204)">Now with prompt engineering, we can do text-to-image and text-to-video.   Now, how about text(description)-to-mesh, text(description)-to-shape, text(description)-to-scene, or even text(description)-to-world?<div dir="auto"><br></div><div dir="auto">Can semantics help this?</div><div dir="auto"><br></div><div dir="auto">John</div>
</blockquote></div></div>
</blockquote></div></div>
</blockquote></div></div>