<div style="font-size:inherit" dir="auto">What’s AI/LLM? Nothing really more fancy than function approximation <span style="font-size:inherit;font-family:-apple-system,sans-serif">(self-organizing—reinforcement learning or trained),</span><span style="font-family:-apple-system,sans-serif;font-size:inherit"> but in a high dimensional space.</span></div><div style="font-size:inherit" dir="auto"><br style="font-size:inherit">Here’s a question, can we do AI/LLM in a fractional dimensional space, and what would that mean?   Are there partial inputs and partial outputs?  There are already weights.   Are weights what make partial inputs and partial outputs?  Is this essentially an non-integer number of parameters?  How might parameter weights be applied to programming languages or functional math or functional programming?   Can we make a programming languages with weights instead of AI models with weights?  What impact might this have on computer graphics or HTML?  Are weights a bit like waves?  Can we graph weights over time?   How might this help with software visualization?</div><div style="font-size:inherit" dir="auto"><br></div><div style="font-size:inherit" dir="auto">Douglas Hofstadter talks about feedback, but do we support feedback, beyond audio and video?  Geometric feedback?  Sounds a bit like fractals.  There’s obvious feedback with LLM, when previous outputs are made inputs.   In graphics, we do image capture or video capture?  How about geometry capture?   Is this essentially DEF/USE?</div><div style="font-size:inherit" dir="auto"><br></div><div style="font-size:inherit" dir="auto">John </div>