<html xmlns:o="urn:schemas-microsoft-com:office:office" xmlns:w="urn:schemas-microsoft-com:office:word" xmlns:m="http://schemas.microsoft.com/office/2004/12/omml" xmlns="http://www.w3.org/TR/REC-html40"><head><meta http-equiv=Content-Type content="text/html; charset=utf-8"><meta name=Generator content="Microsoft Word 15 (filtered medium)"><style><!--
/* Font Definitions */
@font-face
        {font-family:Wingdings;
        panose-1:5 0 0 0 0 0 0 0 0 0;}
@font-face
        {font-family:"Cambria Math";
        panose-1:2 4 5 3 5 4 6 3 2 4;}
@font-face
        {font-family:Calibri;
        panose-1:2 15 5 2 2 2 4 3 2 4;}
/* Style Definitions */
p.MsoNormal, li.MsoNormal, div.MsoNormal
        {margin:0in;
        margin-bottom:.0001pt;
        font-size:11.0pt;
        font-family:"Calibri",sans-serif;}
a:link, span.MsoHyperlink
        {mso-style-priority:99;
        color:blue;
        text-decoration:underline;}
a:visited, span.MsoHyperlinkFollowed
        {mso-style-priority:99;
        color:#954F72;
        text-decoration:underline;}
p.MsoListParagraph, li.MsoListParagraph, div.MsoListParagraph
        {mso-style-priority:34;
        margin-top:0in;
        margin-right:0in;
        margin-bottom:0in;
        margin-left:.5in;
        margin-bottom:.0001pt;
        font-size:11.0pt;
        font-family:"Calibri",sans-serif;}
.MsoChpDefault
        {mso-style-type:export-only;}
@page WordSection1
        {size:8.5in 11.0in;
        margin:1.0in 1.0in 1.0in 1.0in;}
div.WordSection1
        {page:WordSection1;}
/* List Definitions */
@list l0
        {mso-list-id:1467048091;
        mso-list-type:hybrid;
        mso-list-template-ids:-908446756 -1 67698691 67698693 67698689 67698691 67698693 67698689 67698691 67698693;}
@list l0:level1
        {mso-level-start-at:0;
        mso-level-number-format:bullet;
        mso-level-text:\F0D8;
        mso-level-tab-stop:none;
        mso-level-number-position:left;
        text-indent:-.25in;
        font-family:Wingdings;
        mso-fareast-font-family:"Times New Roman";
        mso-bidi-font-family:Calibri;}
@list l0:level2
        {mso-level-number-format:bullet;
        mso-level-text:o;
        mso-level-tab-stop:none;
        mso-level-number-position:left;
        text-indent:-.25in;
        font-family:"Courier New";}
@list l0:level3
        {mso-level-number-format:bullet;
        mso-level-text:\F0A7;
        mso-level-tab-stop:none;
        mso-level-number-position:left;
        text-indent:-.25in;
        font-family:Wingdings;}
@list l0:level4
        {mso-level-number-format:bullet;
        mso-level-text:\F0B7;
        mso-level-tab-stop:none;
        mso-level-number-position:left;
        text-indent:-.25in;
        font-family:Symbol;}
@list l0:level5
        {mso-level-number-format:bullet;
        mso-level-text:o;
        mso-level-tab-stop:none;
        mso-level-number-position:left;
        text-indent:-.25in;
        font-family:"Courier New";}
@list l0:level6
        {mso-level-number-format:bullet;
        mso-level-text:\F0A7;
        mso-level-tab-stop:none;
        mso-level-number-position:left;
        text-indent:-.25in;
        font-family:Wingdings;}
@list l0:level7
        {mso-level-number-format:bullet;
        mso-level-text:\F0B7;
        mso-level-tab-stop:none;
        mso-level-number-position:left;
        text-indent:-.25in;
        font-family:Symbol;}
@list l0:level8
        {mso-level-number-format:bullet;
        mso-level-text:o;
        mso-level-tab-stop:none;
        mso-level-number-position:left;
        text-indent:-.25in;
        font-family:"Courier New";}
@list l0:level9
        {mso-level-number-format:bullet;
        mso-level-text:\F0A7;
        mso-level-tab-stop:none;
        mso-level-number-position:left;
        text-indent:-.25in;
        font-family:Wingdings;}
@list l1
        {mso-list-id:1681275601;
        mso-list-type:hybrid;
        mso-list-template-ids:930484824 -1 67698691 67698693 67698689 67698691 67698693 67698689 67698691 67698693;}
@list l1:level1
        {mso-level-start-at:0;
        mso-level-number-format:bullet;
        mso-level-text:\F0D8;
        mso-level-tab-stop:none;
        mso-level-number-position:left;
        text-indent:-.25in;
        font-family:Wingdings;
        mso-fareast-font-family:"Times New Roman";
        mso-bidi-font-family:"Times New Roman";}
@list l1:level2
        {mso-level-number-format:bullet;
        mso-level-text:o;
        mso-level-tab-stop:none;
        mso-level-number-position:left;
        text-indent:-.25in;
        font-family:"Courier New";}
@list l1:level3
        {mso-level-number-format:bullet;
        mso-level-text:\F0A7;
        mso-level-tab-stop:none;
        mso-level-number-position:left;
        text-indent:-.25in;
        font-family:Wingdings;}
@list l1:level4
        {mso-level-number-format:bullet;
        mso-level-text:\F0B7;
        mso-level-tab-stop:none;
        mso-level-number-position:left;
        text-indent:-.25in;
        font-family:Symbol;}
@list l1:level5
        {mso-level-number-format:bullet;
        mso-level-text:o;
        mso-level-tab-stop:none;
        mso-level-number-position:left;
        text-indent:-.25in;
        font-family:"Courier New";}
@list l1:level6
        {mso-level-number-format:bullet;
        mso-level-text:\F0A7;
        mso-level-tab-stop:none;
        mso-level-number-position:left;
        text-indent:-.25in;
        font-family:Wingdings;}
@list l1:level7
        {mso-level-number-format:bullet;
        mso-level-text:\F0B7;
        mso-level-tab-stop:none;
        mso-level-number-position:left;
        text-indent:-.25in;
        font-family:Symbol;}
@list l1:level8
        {mso-level-number-format:bullet;
        mso-level-text:o;
        mso-level-tab-stop:none;
        mso-level-number-position:left;
        text-indent:-.25in;
        font-family:"Courier New";}
@list l1:level9
        {mso-level-number-format:bullet;
        mso-level-text:\F0A7;
        mso-level-tab-stop:none;
        mso-level-number-position:left;
        text-indent:-.25in;
        font-family:Wingdings;}
ol
        {margin-bottom:0in;}
ul
        {margin-bottom:0in;}
--></style></head><body lang=EN-US link=blue vlink="#954F72"><div class=WordSection1><ul style='margin-top:0in' type=disc><li class=MsoListParagraph style='margin-left:0in;mso-list:l1 level1 lfo2'>What is the appropriate type of neural network for handling geometry?</li></ul><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>In the simple example of recognizing a 2d shape, like a letter, the decision network appears as a set of connected vertices where, for example the first level has an element that only turns on when something parses out a sequence of connected real of virtual connected basic elements that form for example, a part of a curve. Then, another element that might turn on for another part of a shape. The next decision level is somehow trained so that one of its elements turns on when it sees that one or more of the elements above it turns on, maybe when enough of the first ones are seeing enough of an arc to make a circle. Downstream, another level is trained to see that a combination of a circle and other features make a character. I see it as a form of cascade where the state of multiple set(s) of inputs produce some known reaction(s) from the network. </p><p class=MsoNormal>That is why that tesla video says a lot me, because they went ahead and, as far as we know, produced the first computing hardware designed for this type of neural network control decision making, at least for open commerce, at this scale, not as a kit. </p><p class=MsoNormal>Now when you get multiple inputs, even if only looking at the same thing with different viewpoints and lighting, then another level of decision making is learning how to put the various learnable elements together. </p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>So, for nD stuffs, to me, first it is getting whatever it is rendered so it can be analyzed and manipulated as the author intended. Now please start to look for various nD artifacts that can be used to semantically represent basic nD elements that can generally and specifically represent basic elements in the universe you are interested in. </p><p class=MsoNormal>So in the hardware, it is the matter of having enough trainable connections to produce a competent result. </p><p class=MsoNormal>Hardware operations and external interfaces use some sort of programming that can be trained to learn how to operate the hardware and learn how to learn from system inputs and outputs. </p><p class=MsoNormal><o:p> </o:p></p><ul style='margin-top:0in' type=disc><li class=MsoListParagraph style='margin-left:0in;mso-list:l0 level1 lfo1'>feed various geometries to a neural network</li></ul><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>First you get the scene in front of you and the learning system in the form that the author intended, then you train the trainer to recognize whatever it is you want to put into it or get out of it. That is why I still believe that if you have enough points and triangles you can produce a smooth or irregular shape given whatever the rendering concept.  And, I am confident that a network can easily be trained to learn about depth. </p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>The tesla autonomous navigation video tried to emphasize that the training can be from simulated data or from real data, but how much better the real stuff is than the simulated stuff. The need is to advance with accumulation of data and learning enough about the data and then derive those recognizable representational aspects that provide whatever assistance you need. As expected, given the current state of the art and the final user, the dependence on the completeness of the data, the competence of the initial and ongoing trainers, and the ability of the system to learn how to effectively simulate itself using novel stimulations and responses while allowing continuous integration. . </p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal><a href="https://www.youtube.com/watch?v=IHZwWFHWa-w">https://www.youtube.com/watch?v=IHZwWFHWa-w</a></p><p class=MsoNormal> </p><p class=MsoNormal>Joe</p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal><o:p> </o:p></p><div style='mso-element:para-border-div;border:none;border-top:solid #E1E1E1 1.0pt;padding:3.0pt 0in 0in 0in'><p class=MsoNormal style='border:none;padding:0in'><b>From: </b><a href="mailto:yottzumm@gmail.com">John Carlson</a><br><b>Sent: </b>Wednesday, May 22, 2019 9:50 AM<br><b>To: </b><a href="mailto:joedwil@earthlink.net">Joseph D Williams</a>; <a href="mailto:x3d-public@web3d.org">X3D Graphics public mailing list</a><br><b>Subject: </b>RE: [x3d-public] Geometric/Geographic Deep Learning</p></div><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>We are speaking of the difference between a HyperMovie and a HyperShape, at a fundamental level.  One is appearance, the other is geometry.  What is the appropriate type of neural network for handling geometry?<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>Yes, I realize it’s pixels when you look at it. However, a shape is not always rectangular or flat.   This is applying neural networks to Non-Euclidean data (or so they say).<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>Seems like a very complex problem how to feed various geometries to a neural network. I would tend toward rectangularizing it.<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>So similar to how a CNN traverses through an image finding features, a GCN or HCN traverses through a graph or hypergraph finding features.   That’s the main difference.  The similarity is that they’re all convolutional.<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>I agree that images can be graphs and graphs can be images.<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>Hmm.<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>John<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>Sent from <a href="https://go.microsoft.com/fwlink/?LinkId=550986">Mail</a> for Windows 10<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><div style='border:none;border-top:solid #E1E1E1 1.0pt;padding:3.0pt 0in 0in 0in'><p class=MsoNormal><b>From: </b><a href="mailto:yottzumm@gmail.com">John Carlson</a><br><b>Sent: </b>Wednesday, May 22, 2019 11:02 AM<br><b>To: </b><a href="mailto:joedwil@earthlink.net">Joseph D Williams</a>; <a href="mailto:x3d-public@web3d.org">X3D Graphics public mailing list</a><br><b>Subject: </b>RE: [x3d-public] Geometric/Geographic Deep Learning<o:p></o:p></p></div><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>So instead of dealing with output from neural networks being voxels, maybe, just maybe, we can have graphs and meshes?  I’m not entirely clear on the distinction between the data and the network. I guess a GCN can take graphs as input?<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal><a href="https://arxiv.org/pdf/1903.10384.pdf">https://arxiv.org/pdf/1903.10384.pdf</a><o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>John<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>Sent from <a href="https://go.microsoft.com/fwlink/?LinkId=550986">Mail</a> for Windows 10<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><div style='border:none;border-top:solid #E1E1E1 1.0pt;padding:3.0pt 0in 0in 0in'><p class=MsoNormal><b>From: </b><a href="mailto:yottzumm@gmail.com">John Carlson</a><br><b>Sent: </b>Wednesday, May 22, 2019 10:44 AM<br><b>To: </b><a href="mailto:joedwil@earthlink.net">Joseph D Williams</a>; <a href="mailto:x3d-public@web3d.org">X3D Graphics public mailing list</a><br><b>Subject: </b>RE: [x3d-public] Geometric/Geographic Deep Learning<o:p></o:p></p></div><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>No, you don’t get it.  It’s not even a picture/image/frame.  It’s a graph/mesh.  Not a CNN.   A GCN or HCN.  No one said anything about moving or frames except you.<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>In other words, we’ve gotten past pixels in our thinking.<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>John<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>Sent from <a href="https://go.microsoft.com/fwlink/?LinkId=550986">Mail</a> for Windows 10<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><div style='border:none;border-top:solid #E1E1E1 1.0pt;padding:3.0pt 0in 0in 0in'><p class=MsoNormal><b>From: </b><a href="mailto:joedwil@earthlink.net">Joseph D Williams</a><br><b>Sent: </b>Wednesday, May 22, 2019 10:36 AM<br><b>To: </b><a href="mailto:yottzumm@gmail.com">John Carlson</a>; <a href="mailto:x3d-public@web3d.org">X3D Graphics public mailing list</a><br><b>Subject: </b>RE: [x3d-public] Geometric/Geographic Deep Learning<o:p></o:p></p></div><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal><a href="https://www.youtube.com/watch?v=aircAruvnKk">https://www.youtube.com/watch?v=aircAruvnKk</a><o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>When things are moving, we can start to think of frames. If no movement, only one frame needed. <o:p></o:p></p><p class=MsoNormal>Well, we start with the idea of a network, then thinking about how to invent a computing structure to compute the stuff.<o:p></o:p></p><p class=MsoNormal>The hardware and the training seems to be very important. That phrase of continuing integration holds the idea of a dynamically changing output result. <o:p></o:p></p><p class=MsoNormal>Joe<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal><o:p> </o:p></p><div style='border:none;border-top:solid #E1E1E1 1.0pt;padding:3.0pt 0in 0in 0in'><p class=MsoNormal><b>From: </b><a href="mailto:yottzumm@gmail.com">John Carlson</a><br><b>Sent: </b>Sunday, May 19, 2019 12:18 PM<br><b>To: </b><a href="mailto:joedwil@earthlink.net">Joseph D Williams</a>; <a href="mailto:x3d-public@web3d.org">X3D Graphics public mailing list</a><br><b>Subject: </b>RE: [x3d-public] Geometric/Geographic Deep Learning<o:p></o:p></p></div><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>Uh, I just wanted to do geometric and geographic deep learning?<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>“Frame”?  <a href="https://www.youtube.com/watch?v=D3fnGG7cdjY">https://www.youtube.com/watch?v=D3fnGG7cdjY</a><o:p></o:p></p><p class=MsoNormal>John<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>Sent from <a href="https://go.microsoft.com/fwlink/?LinkId=550986">Mail</a> for Windows 10<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><div style='border:none;border-top:solid #E1E1E1 1.0pt;padding:3.0pt 0in 0in 0in'><p class=MsoNormal><b>From: </b><a href="mailto:joedwil@earthlink.net">Joseph D Williams</a><br><b>Sent: </b>Sunday, May 19, 2019 11:58 AM<br><b>To: </b><a href="mailto:yottzumm@gmail.com">John Carlson</a>; <a href="mailto:x3d-public@web3d.org">X3D Graphics public mailing list</a><br><b>Subject: </b>RE: [x3d-public] Geometric/Geographic Deep Learning<o:p></o:p></p></div><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>Anything you wish to discuss involving anticipation, simulation, recognition, labeling, intentionality, inclusion, exclusion, semantic and physical relationships, what the computer wants to see, deep learning, and continuous integration, then watch some of this.<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal><a href="https://www.youtube.com/watch?v=-b041NXGPZ8">https://www.youtube.com/watch?v=-b041NXGPZ8</a><o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>to convolve and deconvolve is basic. How many frames you want? How many neurons you got? <o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>Thanks, <o:p></o:p></p><p class=MsoNormal>Joe<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal><o:p> </o:p></p><div style='border:none;border-top:solid #E1E1E1 1.0pt;padding:3.0pt 0in 0in 0in'><p class=MsoNormal><b>From: </b><a href="mailto:yottzumm@gmail.com">John Carlson</a><br><b>Sent: </b>Sunday, May 19, 2019 8:34 AM<br><b>To: </b><a href="mailto:x3d-public@web3d.org">X3D Graphics public mailing list</a><br><b>Subject: </b>[x3d-public] Geometric/Geographic Deep Learning<o:p></o:p></p></div><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>Finally, something that interests me about deep learning!  Is anyone working on geometric or geographic deep learning?  It appears like these subfields of deep learning have emerged, based on Graph Convolution Networks (GCNs), and perhaps HyperGCNs.<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>Thanks,<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>John<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal><o:p> </o:p></p></div></body></html>