<DIV id=msgbody style="FONT-SIZE: 10pt; FONT-FAMILY: System">
<DIV><FONT face=Arial></FONT>&nbsp;</DIV>
<DIV><FONT face=Arial>Dear all,</FONT></DIV>
<DIV><FONT face=Arial></FONT>&nbsp;</DIV>
<DIV><FONT face=Arial>First of all, I'm glad to hear some responses on AR topics in X3D,</FONT></DIV>
<DIV><FONT face=Arial>And esp. glad to hear from Dr. Behr who has done great works in this field.</FONT></DIV>
<DIV><FONT face=Arial></FONT>&nbsp;</DIV>
<DIV><FONT face=Arial>I understand there are some early implementations from Instant reality&nbsp;on AR&nbsp;visualization using X3D standards, </FONT></DIV>
<DIV><FONT face=Arial>and surely the basic functions of the proposed nodes on my side can be achived by </FONT></DIV>
<DIV><FONT face=Arial>similar and&nbsp;more generic functions that Instant reality browser has implemented.</FONT></DIV>
<DIV><FONT face=Arial></FONT>&nbsp;</DIV>
<DIV>
<DIV><FONT face=Arial>However, as far as I know, </FONT></DIV>
<DIV><FONT face=Arial>the method Dr. Behr mentioned&nbsp;seems specific to the implementation of Instant reality browsers,</FONT></DIV>
<DIV><FONT face=Arial>and still needs&nbsp;more detailed standardizations in order to be generally used/accepted&nbsp;in other&nbsp;X3D browsers, as well.</FONT></DIV>
<DIV><FONT face=Arial>(Please correct me if I'm&nbsp;wrong)</FONT></DIV>
<DIV><FONT face=Arial></FONT>&nbsp;</DIV>
<DIV><FONT face=Arial>In addition, in my opinion, using generic sensor nodes defers the hardware configuration&nbsp;to the end user, </FONT></DIV>
<DIV><FONT face=Arial>and this might be troublesome for the end users who might be not a computer specialist/programmer, but naive users, simply enjoying&nbsp;web surfing.</FONT></DIV>
<DIV><FONT face=Arial></FONT>&nbsp;</DIV>
<DIV><FONT face=Arial>My point is, in order to stimulate/promote usage of AR/MR contents on the&nbsp;web through Web3D standard, </FONT></DIV></DIV>
<DIV><FONT face=Arial>I think we need to standardize AR/MR visualization functions in X3D in a way that </FONT></DIV>
<DIV><FONT face=Arial>would be easy/simple enough for the end users to write/use/access AR/MR contents&nbsp;on&nbsp;X3D browsers.</FONT></DIV>
<DIV><FONT face=Arial>So that it would&nbsp;be powerful/useful enough to&nbsp;promote using X3D for sharing AR/MR contents on the web,</FONT></DIV>
<DIV><FONT face=Arial>instead of distributing individual binary implementations, as we still do until today.</FONT></DIV>
<DIV><FONT face=Arial></FONT>&nbsp;</DIV>
<DIV><FONT face=Arial>Please understand that I'm not insisting to&nbsp;promote my proposal, </FONT></DIV>
<DIV><FONT face=Arial>but I surely want to cooperate with many experts in this field </FONT></DIV>
<DIV><FONT face=Arial>to discuss and foster&nbsp;AR/MR content supports in X3D standard.</FONT></DIV>
<DIV><FONT face=Arial></FONT>&nbsp;</DIV>
<DIV><FONT face=Arial>So, let us please keep in touch and </FONT></DIV>
<DIV><FONT face=Arial>continue to discuss/work together on standardizing AR/MR content supports in X3D.</FONT></DIV>
<DIV><FONT face=Arial></FONT>&nbsp;</DIV>
<DIV><FONT face=Arial>At the moment, I would be reviewing the methods Dr. Behr mentioned, </FONT></DIV>
<DIV><FONT face=Arial>and see how could we get to a common&nbsp;scheme, easily.</FONT></DIV>
<DIV><FONT face=Arial></FONT>&nbsp;</DIV>
<DIV><FONT face=Arial>Hope you all have happy holidays!</FONT></DIV>
<DIV><FONT face=Arial>And please remember your advices/participations are always welcome.</FONT></DIV>
<DIV><FONT face=Arial></FONT>&nbsp;</DIV>
<DIV><FONT face=Arial>Thank you!</FONT></DIV>
<DIV><FONT face=Arial></FONT>&nbsp;</DIV>
<DIV><FONT face=Arial>with warmests regards,</FONT></DIV>
<DIV><FONT face=Arial>Gun</FONT></DIV>
<DIV><FONT face=Arial></FONT>&nbsp;</DIV>
<DIV><FONT face=Arial>========================================================</FONT></DIV>
<DIV style="WORD-BREAK: break-all; FONT-FAMILY: 굴림">
<DIV>
<DIV style="WORD-BREAK: break-all; FONT-FAMILY: 굴림">
<DIV>
<DIV style="FONT-SIZE: 10pt; FONT-FAMILY: 굴림">
<DIV>
<DIV style="FONT-SIZE: 10pt; FONT-FAMILY: 굴림">
<DIV>
<DIV style="FONT-SIZE: 10pt; FONT-FAMILY: 굴림">
<DIV>
<DIV><FONT face=Arial>Gun A. Lee</FONT></DIV>
<DIV><FONT face=Arial>Senior Member of Engineering Staff (Ph.D.)</FONT></DIV>
<DIV><FONT face=Arial></FONT>&nbsp;</DIV>
<DIV><FONT face=Arial>Virtual Reality Research Team</FONT></DIV>
<DIV><FONT face=Arial>Content Research Division</FONT></DIV>
<DIV><FONT face=Arial>Electronics and Telecommunications Research Institute</FONT></DIV>
<DIV><FONT face=Arial>Daejon, 305-700, Republic of Korea.</FONT></DIV>
<DIV><FONT face=Arial>Tel: +82-42-860-5783</FONT></DIV></DIV></DIV></DIV></DIV></DIV></DIV></DIV></DIV></DIV></DIV>
<DIV><BR><FONT face=Arial>-----Original Message-----<BR><B>From:</B> "Gerard J. Kim" &lt;gjkim@korea.ac.kr&gt;<BR><B>From Date:</B> 2009-12-22&nbsp;PM 1:01:29<BR><B>To:</B> "Johannes Behr" &lt;johannes.behr@igd.fraunhofer.de&gt;, Don Brutzman &lt;brutzman@nps.edu&gt;<BR><B>Cc:</B> "korea-chapter@web3d.org" &lt;korea-chapter@web3d.org&gt;, Web3D Consortium Members &lt;consortium@web3d.org&gt;, "KAIST-NPS collaboration" &lt;kaist-nps@movesInstitute.org&gt;, "X3D Graphics member mailing list" &lt;x3d@web3d.org&gt;<BR><B>Subject:</B> Re: [Korea-chapter][X3D] minutes from Web3D Korea chapter meeting (revised)<BR><BR></FONT></DIV><!-- style>                            #mailBodyContentDiv { font-family : Dotum, Verdana, Arial, Helvetica ; background-color: #ffffff;font-size:10pt;}                     #mailBodyContentDiv BODY { background-color: #ffffff;}            #mailBodyContentDiv BODY, TD, TH { color: black; font-family: Dotum, Verdana, Arial, Helvetica; font-size: 10pt; }            #mailBodyContentDiv P { margin: 0px; padding:2px;}     </style -->
<DIV>
<DIV id=mailBodyContentDiv style="WIDTH: 100%">
<P><FONT face=Arial>Dear all,</FONT></P>
<P><FONT face=Arial></FONT>&nbsp;</P>
<P><FONT face=Arial>I beg to differ a little bit, IMHO (regarding Mixed Reality extensions in x3d).</FONT></P>
<P><FONT face=Arial>Among the three things as suggested by Johannes,</FONT></P>
<P><FONT face=Arial></FONT>&nbsp;</P>
<P><FONT face=Arial>- I agree the IO sensors can be used to act like markers or sensed object as if it streams the</FONT></P>
<P><FONT face=Arial>&nbsp; tracked data into whatever objects.&nbsp; But it might need to be just extended to accomodate different types</FONT></P>
<P><FONT face=Arial>&nbsp;&nbsp;sensors (I am not sure if InstantReality, as it is now, supports anything other than its own marker basd vision library).</FONT></P>
<P><FONT face=Arial></FONT>&nbsp;</P>
<P><FONT face=Arial>- Viewpoint extension seems to be mostly equivalent to what Gun has proposed.&nbsp; It&nbsp;is just a matter of</FONT></P>
<P><FONT face=Arial>&nbsp;&nbsp; perhaps detail/syntactical differences ...</FONT></P>
<P><FONT face=Arial></FONT>&nbsp;</P>
<P><FONT face=Arial>- Polygon background seems, again, something, mostly equivalent to what Gun has proposed anyway.</FONT></P>
<P><FONT face=Arial></FONT>&nbsp;</P>
<P><FONT face=Arial>So I think they would be useful.&nbsp; What InstantReality proposes or Gun proposes overlap and we need to </FONT></P>
<P><FONT face=Arial>maybe get an agreement on the ground functinalities for these and work on some common syntax ...</FONT></P>
<P><FONT face=Arial></FONT>&nbsp;</P>
<P><FONT face=Arial>Gerry Kim.</FONT></P>
<P><FONT face=Arial></FONT>&nbsp;</P>
<P><FONT face=Arial></FONT>&nbsp;</P>
<BLOCKQUOTE style="PADDING-RIGHT: 0px; PADDING-LEFT: 5px; MARGIN-LEFT: 5px; BORDER-LEFT: #000000 2px solid; MARGIN-RIGHT: 0px"><FONT face=Arial>------------&nbsp;Original&nbsp;Message&nbsp;------------<BR><B>From :</B> "Johannes Behr"&lt;johannes.behr@igd.fraunhofer.de&gt;<BR><B>To :</B> "Don Brutzman" &lt;brutzman@nps.edu&gt;<BR><B>Cc&nbsp;:</B> korea-chapter@web3d.org, "Web3D Consortium Members" &lt;consortium@web3d.org&gt;, "KAIST-NPS collaboration" &lt;kaist-nps@movesInstitute.org&gt;, "X3D Graphics member mailing list" &lt;x3d@web3d.org&gt;<BR><B>Title&nbsp;:</B> Re: [Korea-chapter] [X3D] minutes from Web3D Korea chapter meeting (revised)<BR><B>Date&nbsp;:</B> Mon, 21 Dec 2009 18:36:52 +0100<BR>&nbsp; </FONT>
<P><FONT face=Arial>Hi,<BR><BR>I still don't see the need for a specific LiveCamera, LiveViewpoint<BR>and specific AR background.<BR><BR>For basic AR you just need the following:<BR><BR>- Generic Method to stream data (e.g. images) in/out<BR>(http://www.instantreality.org/documentation/nodetype/IOSensor/)<BR><BR>- Some Simple Viewpoint extension (principielPoint)<BR>(http://www.instantreality.org/documentation/nodetype/PerspectiveViewpoint/)<BR><BR>- Generic Background which allows you do place and distort a image<BR>(http://www.instantreality.org/documentation/nodetype/PolygonBackground/)<BR><BR>best regards<BR>johannes<BR><BR><BR>&gt;<BR>&gt; 4. Dr. Gun Lee presented an update on his work in Mixed Reality (MR)<BR>&gt; which spans the spectrum from<BR>&gt; - Real environments (real world)<BR>&gt; - Augmented Reality (AR)<BR>&gt; - Augmented Virtuality (AV)<BR>&gt; - Virtual Environments (VE)<BR>&gt;<BR>&gt; Many AR applications are now being distributed over the Internet with<BR>&gt; commercial and marketing tie-ins. There are effectively no standards<BR>&gt; in this area. There are some user groups for popular software (for<BR>&gt; example AR Toolkit) but there do not appear to be any standardization<BR>&gt; efforts. X3D and VRML are used by AR loaders, as are Collada and other<BR>&gt; formats. Device setup is often closely tied to hardware drivers and<BR>&gt; specific operating systems or specific codebases, making portability<BR>&gt; and interoperability difficult. Together this makes a good rationale<BR>&gt; for use of X3D to implement AR capabilities.<BR>&gt;<BR>&gt; He has done much work in this area, summarized in the slideset.<BR>&gt; Specific X3D extensions include<BR>&gt; - LiveCamera node<BR>&gt; - Background and/or BackgroundTexture node modifications<BR>&gt; - LiveViewpoint<BR>&gt;<BR>&gt; We talked about different types of cameras (planar/cylindrical/spherical<BR>&gt; images) that might be used. The options probably deserve further analysis<BR>&gt; as new products and image-processing techniques become widely available.<BR>&gt;<BR>&gt; Wondering whether a combination of Background/TextureBackground plus a<BR>&gt; simple Billboard holding a 6-sided IndexedFaceSet might handle most<BR>&gt; combinations of interest? I suspect that there is sufficient generality<BR>&gt; in these already-existing nodes if we map and preprocess LiveCamera imagery<BR>&gt; as a X3DTexture node correctly. In other words, we do not want to create<BR>&gt; new nodes or different solutions for X3D if a good adaptation of existing<BR>&gt; functionality can be found. If there are many variations in the X3D nodeset,<BR>&gt; then it becomes very difficult for browsers to implement everything correctly.<BR>&gt; A tradeoff for a new node might be considered acceptable if it greatly<BR>&gt; simplifies work for authors, without hurting browser builders. "Less is more."<BR>&gt;<BR>&gt; Of course these are not design decisions being written here, rather they<BR>&gt; are design guidelines that help new technology eventually get approved as<BR>&gt; X3D additions.<BR>&gt;<BR>&gt; Gun Lee also pointed out that Layers might also be of use, particularly<BR>&gt; for display in an immersive multi-sided environment like a CAVE. Also<BR>&gt; worth exploring. (Unfortunately, Layer/Layout support is not yet great<BR>&gt; by X3D players, this is a prerequisite area for implementation/evaluation<BR>&gt; before approving X3D v3.3). Currently implemented support is maintained at<BR>&gt; http://www.web3d.org/x3d/wiki/index.php/Player_support_for_X3D_components<BR>&gt;<BR>&gt; We talked for some time about whether a LiveViewpoint node might need<BR>&gt; both projection matrix and rotation. Perhaps projection matrix is not<BR>&gt; needed? Usually only browsers do matrices, and a camera input likely<BR>&gt; only provide orientation (not projection matrix) and an author might<BR>&gt; then display the moving texture onto a properly sized, oriented and<BR>&gt; registered quadrilateral within the scene. Something to consider.<BR>&gt;<BR>&gt; Going forward, some suggestions:<BR>&gt;<BR>&gt; Wondering about consistency of this work with other approaches proposed<BR>&gt; by Fraunhofer (and perhaps others) in past Web3D Symposium proceedings?<BR>&gt;<BR>&gt; Wondering if there are any overlapping goals or capabilities defined<BR>&gt; in the Projective Texture Mapping (PTM) work? There are some similar<BR>&gt; themes, maybe a small amount of co-design might be productive. Whether<BR>&gt; the result is yes or no, the answer is interesting because it helps us<BR>&gt; to convince others that the most distilled and effective recommendations<BR>&gt; have been achieved.<BR>&gt;<BR>&gt; Another effort that needs to be better documented is how various browsers<BR>&gt; handle different devices. It is a tradeoff for how much detail is needed,<BR>&gt; with details usually handled by browsers.<BR>&gt;<BR>&gt; We should try to compare your nodes to the Camera nodes proposed by NPS<BR>&gt; at the Web3D 2009 Symposium.<BR>&gt; http://www.web3d.org/x3d/content/examples/Basic/development/<BR>&gt; then<BR>&gt; Camera Examples<BR>&gt; paper also provided<BR>&gt;<BR>&gt; Wondering if you had looked at relative difficulty in implementing these<BR>&gt; by others. One approach is to build a ProtoDeclare that includes a<BR>&gt; Script (and perhaps some native hardware-driver code) to simplify the<BR>&gt; construction of alternative implementations.<BR>&gt;<BR>&gt; We discussed how the path to resolve all of these various combinations<BR>&gt; might be to create use cases, with corresponding X3D examples, that show<BR>&gt; how to use these nodes correctly. If any credible use case cannot be<BR>&gt; shown with the X3D extensions, then the challenges are not yet properly<BR>&gt; solved. Once we are close, then codebase variations to refine the final<BR>&gt; result are usually not too complex.<BR>&gt;<BR>&gt; And so, it also appears as if some X3D example scenes, with corresponding<BR>&gt; snapshots or videos, might also be of use here.<BR>&gt;<BR>&gt; Finally, once again, the X3D group is being presented with some powerful<BR>&gt; new capabilities that are worth refining and considering for inclusion in<BR>&gt; X3D v3.3.<BR>&gt;<BR>&gt; Of related interest: "Web3D to Showcase X3D at the AR DevCamp" article at<BR>&gt; http://www.web3d.org/news/permalink/web3d-to-showcase-x3d-at-the-ar-devcamp<BR>&gt;<BR>&gt;&gt; “The first Augmented Reality Development Camp (AR DevCamp) will be held<BR>&gt;&gt; on Saturday December 5, 2009 at the Hacker Dojo in Mountain View CA and<BR>&gt;&gt; simultaneously in New York City and around the world!<BR>&gt;&gt; After nearly 20 years in the research labs, Augmented Reality is taking<BR>&gt;&gt; shape as one of the next major waves of Internet innovation, overlaying<BR>&gt;&gt; and infusing the physical world with digital media, information and<BR>&gt;&gt; experiences. AR must be fundamentally open, interoperable, extensible,<BR>&gt;&gt; and accessible to all, so that it can create the kinds of opportunities<BR>&gt;&gt; for expressiveness, communication, business and social good on the web<BR>&gt;&gt; and Internet today. As one step towards this goal of an Open AR web,<BR>&gt;&gt; the AR DevCamp 1.0, will have a full day of technical sessions and<BR>&gt;&gt; hacking opportunities in an open format, BarCamp style. For more<BR>&gt;&gt; information about this camp please visit www.ardevcamp.org.<BR>&gt;&gt;<BR>&gt;&gt; Web3D Consortium will be showcasing their open standards X3D<BR>&gt;&gt; implementations for Augmented Reality at this camp. Join us and see<BR>&gt;&gt; how you can use X3D today for your Augmentent Reality needs.<BR>&gt;<BR>&gt; ==================================<BR>&gt;<BR>&gt; 5. Dr. Byounghyun Yoo presented updates on use of X3D Earth to provide<BR>&gt; a digital globe infrastructure. This work explains and continues to<BR>&gt; extend many achievements he accomplished while working as a postdoctoral<BR>&gt; researcher and then Web3D Fellow while at NPS 2007-2008.<BR>&gt;<BR>&gt; http://web3d.org/about/fellowship<BR>&gt;<BR>&gt; Particular highlights of this talk show how the X3D Earth effort meet the<BR>&gt; larger requirements of a Digital Earth infrastructure proposed by Al Gore<BR>&gt; a decade ago, overcoming limitations on multiplicity, interoperability,<BR>&gt; openness and equity that constrain other geobrowsers.<BR>&gt;<BR>&gt; The visual-debugging video that showed artificial tiling algorithms is<BR>&gt; very powerful and has influenced us to add author-visualization assists<BR>&gt; for various nodes wherever possible in the X3D-Edit tool.<BR>&gt;<BR>&gt; ==================================<BR>&gt;<BR>&gt; 6. Dr. Don Brutzman presented 3 talks on the following topics<BR>&gt;<BR>&gt; - X3D progress and prospects 2009<BR>&gt; - HTML5 and X3D: presented at World Wide WEb Consortium (W2C)<BR>&gt; Technical Plenary and Advisory Committee (TPAC) November 2009<BR>&gt; - X3D-Edit Update: continued improvements in authoring X3D<BR>&gt;<BR>&gt; ==================================<BR>&gt;<BR>&gt; 7. Pranveer Singh KAIST presented his progress in Parametric Macro<BR>&gt; translation of CAD files into a neutral XML file format which captures<BR>&gt; the CAD authoring history of model creation. The results then go to<BR>&gt; KAIST's Transcad (which licenses ACIS and HOOPS) to create facet data,<BR>&gt; and then through various open-source polygon reduction tools (TETGEN<BR>&gt; and MeshLab) to produce X3D.<BR>&gt;<BR>&gt; Are there open-source alternatives to ACIS or HOOPS? Apparently not.<BR>&gt; However, if the X3D boundary represenation (B-Rep) specification were<BR>&gt; released, the neutral XML file might directly produce X3D, which can<BR>&gt; then be decimated and cleaned up.<BR>&gt;<BR>&gt; Of further interest is that if the final results are in X3D B-rep form,<BR>&gt; a reverse translation might be possible back into the neutral XML<BR>&gt; parametric-macro format, which could be further run in reverse to<BR>&gt; regenerate CAD files.<BR>&gt;<BR>&gt; The polygon refactoring and reduction steps using TETGEN and MeshLab<BR>&gt; are fairly automatic using Pranveer's tool, which he demonstrated.<BR>&gt; This can be released and is likely of broader interest.<BR>&gt;<BR>&gt; This is important work which looks increasingly important with each<BR>&gt; successful improvement. I think that the X3D CAD working group will<BR>&gt; be well advised to consider this as an extension to the X3D CAD<BR>&gt; Component which will unlock X3D and a variety of CAD formats,<BR>&gt; perhaps even bidirectionally.<BR>&gt;<BR>&gt; ==================================<BR>&gt;<BR>&gt; 8. Dr. Kwan-hee Yoo presented conceptual ideas on medical visualization<BR>&gt; that focused on 2D and 3D visualizations, particularly with respect to<BR>&gt; how X3D might work well with the DICOM standard.<BR>&gt;<BR>&gt; We looked at the Medical Working Group proposed specification changes:<BR>&gt;<BR>&gt; http://www.web3d.org/membership/login/memberwiki/index.php/X3D_v3.3_Specification_Changes#Medical_working_group<BR>&gt; - MedicalInterchange component<BR>&gt; - Texturing3D component additions<BR>&gt; - Volume rendering<BR>&gt; - Annotation component<BR>&gt;<BR>&gt; Kwan-Hee's slides might help make an excellent justification for the<BR>&gt; MedicalInterchange component.<BR>&gt;<BR>&gt; He will look at these changes to see if they can express his exemplars.<BR>&gt;<BR>&gt; We hope to schedule a future teleconference with Medical Working Group<BR>&gt; members on these topics.<BR>&gt;<BR>&gt; ==================================<BR>&gt;<BR>&gt; 9. Dr. Kwan-hee Yoo presented further conceptual ideas on the potential<BR>&gt; benefits of digital textbooks utilizing X3D. He gave an digital textbook<BR>&gt; demo example with his slides based on the Microsoft WPF format. He also<BR>&gt; listed a set if functions that could be used in this application area.<BR>&gt;<BR>&gt; He then gave an X3D demo that illustrated the use of many of these<BR>&gt; functional areas: page turning, book rotation, zooming. The source<BR>&gt; code was provided. Other examples included X3D mixing of Korean text,<BR>&gt; imagery, 3D TouchSensors and video. BS Contact did an excellent job<BR>&gt; on all functions, though Korean text characters appeared to be rendered<BR>&gt; as individual images (rather than geometry) and so was not always clear.<BR>&gt;<BR>&gt; He is also looking at SVG possibilities, which has also been proposed:<BR>&gt; http://www.web3d.org/membership/login/memberwiki/index.php/X3D_v3.3_Specification_Changes#SvgTexture_node<BR>&gt;<BR>&gt; Some other e-book info is online at<BR>&gt; http://www.free-ebooks-download.org/free-ebook/dotnet/Framework/<BR>&gt; http://publishing.ebookmall.com/information/formats.htm<BR>&gt;<BR>&gt; We also talked about how further interoperation with HTML5, and thus<BR>&gt; SVG and MathML, particularly for cross-linking via event passing,<BR>&gt; will greatly facilitate creation of these new multimedia applications<BR>&gt; as deployable Web content/applications.<BR>&gt;<BR>&gt; Perhaps the Web Fonts effort in W3C is also becoming of common interest<BR>&gt; since that might help browser companies improve their font support,<BR>&gt; sometimes "for free" if they are operating as a plugin with a browser<BR>&gt; that provides such fonts.<BR>&gt; http://www.w3.org/TR/css3-fonts<BR>&gt;<BR>&gt; ==================================<BR>&gt;<BR>&gt; 10. Dr. Yong-Sang Cho provided an introduction presentation<BR>&gt; for the IMS Global Learning Consortium, online at<BR>&gt; http://www.imsglobal.org<BR>&gt;<BR>&gt; Lots of excellent detail in the slides.<BR>&gt;<BR>&gt; Learning systems of interest include open-source Sakai and Moodle.<BR>&gt; http://sakaiproject.org<BR>&gt; http://moodle.org<BR>&gt;<BR>&gt; They are interested in how X3D might fit into these standards and<BR>&gt; best practices relating to learning management systems. Another<BR>&gt; common interest is the use of X3D with respect to accessibility<BR>&gt; (for access-limited systems).<BR>&gt;<BR>&gt; Since the _X3D for Web Authors_ course is online with slides and<BR>&gt; examples and video, perhaps the course material might be moved<BR>&gt; into Sakai (now in use at NPS) for creating a full-capability<BR>&gt; course that is not only about X3D multimedia, but also using<BR>&gt; X3D multimedia as part of the learning management system (LMS).<BR>&gt;<BR>&gt; This is an extremely important imperative with W3C WAI (mentioned<BR>&gt; earlier), IMS and Web3D. We will discuss it further in tomorrow's<BR>&gt; meeting.<BR>&gt;<BR>&gt; ==================================<BR>&gt;<BR>&gt; 11. Dr. Chung-weon Oh presented on Standardization of Web3D GIS.<BR>&gt; He discussed a wide variety of initiatives going on in many different<BR>&gt; standards-related organizations.<BR>&gt;<BR>&gt; There was some interest in SEDRIS standards. Of interest is that there<BR>&gt; is a further proposed extension to X3D to match SEDRIS capabilities.<BR>&gt; http://www.igraphics.com/Standards<BR>&gt; http://www.igraphics.com/Standards/EnhancedGeospatialComponent_2007_10_30<BR>&gt;<BR>&gt; Interestingly, members of our X3D Earth Working Group are meeting<BR>&gt; with members of the Open Geospatial Consortium (OGC) tomorrow in<BR>&gt; San Francisco. We recently renewed our Liaison Agreement. Our<BR>&gt; primary representative is Mike McCann of MBARI who is also cochair<BR>&gt; of the X3D Earth Working Group.<BR>&gt;<BR>&gt; ==================================<BR>&gt;<BR>&gt; 12. It is clear that the Korea Group is able to proceed as fast or faster<BR>&gt; than many of the other players in Web3D Consortium. It would be great if<BR>&gt; more partnerships were established with existing or new) members to take<BR>&gt; advantage of their excellent progress, to mutual benefit. Suggestions<BR>&gt; and direct discussions are most welcome.<BR>&gt;<BR>&gt; A good approach for getting the Korean Chapter proposals into X3D v3.3:<BR>&gt; - continue using the wiki to get to clarity on each technical approach<BR>&gt; - once mature, turn it into formal specification prose (like the Medical<BR>&gt; example)<BR>&gt;<BR>&gt; Links will be announced soon for the presentations given today.<BR>&gt; Further comments are welcome on these minutes for audience questions.<BR>&gt;<BR>&gt; There was a tremendous and amazing amount of progress today. Looking<BR>&gt; forward to further dialog and process.<BR>&gt;<BR>&gt; all the best, Don<BR>&gt; --<BR>&gt; Don Brutzman Naval Postgraduate School, Code USW/Br brutzman@nps.edu<BR>&gt; Watkins 270 MOVES Institute, Monterey CA 93943-5000 USA work +1.831.656.2149<BR>&gt; X3D, virtual worlds, underwater robots, XMSF http://web.nps.navy.mil/~brutzman<BR>&gt;<BR>&gt;<BR>&gt;<BR>&gt;<BR>&gt; _______________________________________________<BR>&gt; X3d mailing list<BR>&gt; X3d@web3d.org<BR>&gt; http://web3d.org/mailman/listinfo/x3d_web3d.org<BR><BR>--<BR>Dr. Johannes Behr<BR>Leiter Projektbereich VR<BR><BR>Fraunhofer-Institut f?r Graphische Datenverarbeitung IGD<BR>Fraunhoferstr. 5 | 64283 Darmstadt | Germany<BR>Tel +49 6151 155-510 | Fax +49 6151 155-196<BR>johannes.behr@igd.fraunhofer.de | www.igd.fraunhofer.de<BR><BR><BR>_______________________________________________<BR>Korea-chapter mailing list<BR>Korea-chapter@web3d.org<BR>http://web3d.org/mailman/listinfo/korea-chapter_web3d.org<BR><BR></FONT>
<P><FONT face=Arial></FONT></P></BLOCKQUOTE></DIV></DIV>
<DIV><FONT face=Arial><IMG height=1 src="http://mail.korea.ac.kr/mail/PutAck.jsp?ack_args=c2VudF9maWxlPWdqa2ltQGtvcmVhLmFjLmtyLy5TZW50LzEyNjE0NTQ0ODk1MDAuNjk5NTEua29yZWEmc2VuZF9kYXRlPTIwMDkxMjIyMTMwMTI5JnN1YmplY3Q9UmU6UmU6IFtLb3JlYS1jaGFwdGVyXSBbWDNEXSBtaW51dGVzIGZyb20gV2ViM0QgS29yZWEgY2hhcHRlciBtZWV0aW5nIChyZXZpc2VkKQ==&amp;to_email=korea-chapter@web3d.org_______________________________________________________________________________________________________________________________" width=1 border=0> </FONT></DIV></DIV><img style="display:none" width=0 height=0 src="http://umail.etri.re.kr/External_ReadCheck.aspx?email=korea-chapter@web3d.org&name=korea-chapter%40web3d.org&fromemail=endovert@etri.re.kr&messageid=%3C9c12d998-36c6-4e20-8d56-3de8e5ad1cd8@etri.re.kr%3E">