Alles über die Frame-Schleife
Recientemente, publiqué la virtuelle Realität llega a la Netz, ein Post que presenta conceptos básicos detrás de la WebXR-Geräte-API. Además proporcioné instrucciones para solicitar, acceder y culminar una sesión de XR.
Este post describe el bucle de tramas, que es un bucle infinito controlado por el usuario-agente en el que el Inhalt se dibuja repetidamente en la pantalla. El contenido se dibuja en bloques discretos llamados marcos. La sucesión de fotogramas crea la ilusión de movimiento.
Was ist dieser Artikel nicht?
WebGL y WebGL2 son los únicos medios para representar contenido durante un bucle de cuadro en una aplicación WebXR. Por suerte, muchos marcos proporcionan una capa de abstracción al mismo tiempo de WebGL y WebGL2. Dichos marcos incluyen three.js,
babylonjsy
Playcanvas, Während Ein Rahmen y
Reaccionar 360 están diseñados para interactuar con WebXR.
Este post no es un tutorial de WebGL ni de Rahmen. Explica los conceptos básicos de un bucle de fotogramas usando la muestra de sesión de realidad virtual inmersiva del Grupo de trabajo web inmersivo (Manifestation,
Quelle). Si desea sumergirse en WebGL o en uno de los marcos, Internet proporciona una lista creciente de posts.
Die Spieler und das Spiel
Cuando trataba de comprender el bucle de cuadros, seguía perdiéndome en los detalles. Hay muchos objetos en juego, y algunos de ellos solo se nombran por propiedades de referencia en otros objetos. Para ayudarte a mantenerlo claro, describiré los objetos, a los que llamo «jugadores». Posteriormente describiré cómo interactúan, a lo que llamo «el juego».
Spieler
XRViewerPose
Una pose es la posición y orientación de algo en el espacio 3D. Tanto los espectadores como los dispositivos de entrada disponen una pose, pero lo que nos preocupa aquí es la pose del espectador. Ambas poses de visor y dispositivo de entrada disponen verwandeln
Attribut que describe su posición como vector y su orientación como un cuaternión relativo al origen. El origen se especifica en función del tipo de espacio de referencia solicitado al llamar XRSession.requestReferenceSpace ()
.
Los espacios de referencia tardan un poco en explicarse. Los cubro en profundidad en realidad aumentada. La muestra que estoy utilizando como base para este post utiliza un 'lokal'
Referenzraum, dh der Ursprung befindet sich zum Zeitpunkt der Sitzungserstellung ohne genau definierten Boden in der Position des Betrachters, und seine genaue Position kann je nach Plattform variieren.
XRView
Una vista corresponde a una cámara que visualiza la escena virtual. Una vista además cuenta con una
verwandeln
atributo que describe su posición como vector y su orientación. Estos se proporcionan como un par de vector / cuaternión y como una matriz idéntico, puede utilizar cualquiera de las representaciones dependiendo de cuál se ajuste mejor a su código. Cada vista corresponde a una pantalla o una parte de una pantalla utilizada por un dispositivo para presentar imágenes al espectador. XRView
Objekte werden in einem Array von der zurückgegeben XRViewerPose
objeto. El número de vistas de la matriz varía. En los dispositivos móviles, una escena de RA cuenta con una vista, que puede o no cubrir la pantalla del dispositivo. Los auriculares suelen tener dos vistas, una para cada ojo.
XRWebGLLayer
Ebenen bieten eine Quelle für Bitmap-Bilder und Beschreibungen, wie diese Bilder auf dem Gerät gerendert werden sollen. Diese Beschreibung erfasst nicht, was dieser Player tut. Ich habe es mir als Vermittler zwischen einem Gerät und einem Gerät vorgestellt
WebGLRenderingContext
. MDN vertritt den gleichen Standpunkt und erklärt, dass es eine "Verbindung" zwischen beiden herstellt. Als solches bietet es Zugriff auf die anderen Spieler.
Im Allgemeinen speichern WebGL-Objekte Statusinformationen zum Rendern von 2D- und 3D-Grafiken.
WebGLFramebuffer
Ein Framebuffer liefert Bilddaten an die WebGLRenderingContext
. Posteriormente de recuperarlo del XRWebGLLayer
, básicamente pásalo a la corriente
WebGLRenderingContext
. Abgesehen von einem Anruf bindFramebuffer ()
(más sobre eso más adelante) nunca accederá a este objeto de forma directa. Básicamente lo pasará del XRWebGLLayer
zum WebGLRenderingContext.
XRViewport
Ein Grafikfenster liefert die Koordinaten und Abmessungen eines rechteckigen Bereichs in der WebGLFramebuffer
.
WebGLRenderingContext
Un contexto de representación es un punto de acceso programático para un lienzo (el espacio en el que estamos dibujando). Para hacer esto, requiere un WebGLFramebuffer
und ein XRViewport.
Note la vinculación entre XRWebGLLayer
y WebGLRenderingContext
. Einer entspricht dem Gerät des Betrachters und der andere der Webseite.
WebGLFramebuffer
y XRViewport
Sie gehen von der ersten zur zweiten.

La vinculación entre XRWebGLLayer
y WebGLRenderingContext
Das Spiel
Ahora que sabemos quiénes son los jugadores, veamos el juego que juegan. Es un juego que comienza de nuevo con cada fotograma. Recuerde que los fotogramas son parte de un bucle de fotogramas que surge a una velocidad que depende del Hardware- subyacente. Para las aplicaciones de realidad virtual, los fps pueden oscilar entre 60 y 144. AR para Android se ejecuta a 30 fps. Su código no debe hacerse cargo ninguna velocidad de fotogramas en particular.
El procedimiento básico para el bucle de cuadro se ve así:
- Anruf
XRSession.requestAnimationFrame ()
. En respuesta, el User-Agent invoca elXRFrameRequestCallback
, que usted establece. - Innerhalb Ihrer Rückruffunktion:
- Anruf
XRSession.requestAnimationFrame ()
nochmal. - Holen Sie sich die Pose des Betrachters.
- Pass ('Link') die
WebGLFramebuffer
von demXRWebGLLayer
zumWebGLRenderingContext
. - Iterieren Sie über jeden
XRView
Objekt, Abrufen seinerXRViewport
von demXRWebGLLayer
und weitergeben anWebGLRenderingContext
. - Zeichne etwas in den Framebuffer.
- Anruf
Como los pasos 1 y 2a se trataron en el post anterior, comenzaré en el paso 2b.
Holen Sie sich die Pose des Zuschauers
Probablemente no es necesario decirlo. Para dibujar cualquier cosa en AR o VR, necesito saber dónde está el espectador y hacia dónde está mirando. La posición y la orientación del espectador son proporcionadas por un XRViewerPose-Objekt. Ich bekomme die Pose des Zuschauers, der anruft XRFrame.getViewerPose ()
im aktuellen Animationsrahmen. Ich übergebe Ihnen den Referenzraum, den ich beim Einrichten der Sitzung erworben habe. Die von diesem Objekt zurückgegebenen Werte beziehen sich immer auf den Referenzbereich, den ich beim Betreten der aktuellen Sitzung angefordert habe. Wie Sie sich vielleicht erinnern, muss ich den aktuellen Referenzraum übergeben, wenn ich die Pose anfordere.
Funktion onXRFrame(hrTime, xrFrame) {
Lassen xrSession = xrFrame.Sitzung;
xrSession.requestAnimationFrame(onXRFrame);
Lassen xrViewerPose = xrFrame.getViewerPose(xrRefSpace);
wenn (xrViewerPose) {
}
}
Hay una pose del espectador que representa la posición general del Nutzername, dicho de otra forma, la cabeza del espectador o la cámara del teléfono en el caso de un teléfono inteligente. La pose le dice a su aplicación dónde está el espectador. Usos reales de renderizado de imágenes
XRView
Objekte, zu denen ich gleich komme.
Antes de continuar, pruebo si la pose del espectador fue devuelta en caso de que el sistema pierda el seguimiento o bloquee la pose por razones de privacidad. El seguimiento es la capacidad del dispositivo XR para comprender dónde está y / o sus dispositivos de entrada en vinculación con el entorno. El seguimiento se puede perder de varias formas y varía según el método utilizado para realizar el seguimiento. A modo de ejemplo, si se usan cámaras en los auriculares o en el teléfono para rastrear, el dispositivo puede perder su capacidad para establecer dónde se encuentra en situaciones con poca luz o sin luz, o si las cámaras están cubiertas.
Un ejemplo de bloqueo de la pose por motivos de privacidad es que si el auricular muestra un cuadro de diálogo de seguridad, como una solicitud de permiso, el Browser puede dejar de proporcionar poses a la aplicación mientras esto ocurre. Pero ya llamé
XRSession.requestAnimationFrame ()
de modo que si el sistema puede recuperarse, el bucle de tramas continuará. Caso contrario, el agente de usuario finalizará la sesión y llamará al
Ende
Event-Handler.
Ein kleiner Umweg
El paso siguiente necesita objetos creados durante la configuración de la sesión. Recuerde que creé un lienzo y le indiqué que creara un contexto de representación Web GL compatible con XR, que obtuve llamando canvas.getContext ()
. Todo el dibujo se realiza a través de la API de WebGL, la API de WebGL2 o un marco basado en WebGL como Three.js. Este contexto se pasó al objeto de sesión a través de updateRenderState ()
zusammen mit einer neuen Instanz von XRWebGLLayer
.
Lassen canvas = Dokument.createElement('canvas');
Lassen webGLRenContext = canvas.getContext('webgl', { xrCompatible: wahr });
xrSession.updateRenderState({
baseLayer: new XRWebGLLayer(xrSession, webGLRenContext)
});
Übergeben Sie den WebGLFramebuffer ('binden')
das XRWebGLLayer
stellt einen Framebuffer für die bereit WebGLRenderingContext
Wird speziell für die Verwendung mit WebXR bereitgestellt und überschreibt den Standard-Framebuffer zum Rendern von Kontexten. Dies wird in der Sprache von WebGL als "Bindung" bezeichnet.
Funktion onXRFrame(hrTime, xrFrame) {
Lassen xrSession = xrFrame.Sitzung;
xrSession.requestAnimationFrame(onXRFrame);
Lassen xrViewerPose = xrFrame.getViewerPose(xrRefSpace);
wenn (xrViewerPose) {
Lassen glLayer = xrSession.renderState.baseLayer;
webGLRenContext.bindFramebuffer(webGLRenContext.FRAMEBUFFER, glLayer.framebuffer);
}
}
Durchlaufen Sie jedes XRView-Objekt
Posteriormente de conseguir la pose y vincular el framebuffer, es hora de conseguir las ventanas gráficas. los XRViewerPose
enthält ein Array von XRView-Schnittstellen, von denen jede einen Bildschirm oder einen Teil eines Bildschirms darstellt. Sie enthalten Informationen, die zum Rendern von Inhalten erforderlich sind, die für das Gerät und den Betrachter korrekt positioniert sind, z. B. Sichtfeld, Augenbewegung und andere optische Eigenschaften. Als Zwei-Augen-Zeichnung habe ich zwei Ansichten, die ich durchschleife und für jede ein eigenes Bild zeichne.
Al poner en práctica para la realidad aumentada basada en teléfonos, solo tendría una vista, pero todavía usaría un bucle. Aún cuando puede parecer inútil iterar a través de una vista, hacerlo le posibilita tener una única ruta de renderizado para un espectro de experiencias inmersivas. Esta es una diferencia importante entre WebXR y otros sistemas inmersivos.
Funktion onXRFrame(hrTime, xrFrame) {
Lassen xrSession = xrFrame.Sitzung;
xrSession.requestAnimationFrame(onXRFrame);
Lassen xrViewerPose = xrFrame.getViewerPose(xrRefSpace);
wenn (xrViewerPose) {
Lassen glLayer = xrSession.renderState.baseLayer;
webGLRenContext.bindFramebuffer(webGLRenContext.FRAMEBUFFER, glLayer.framebuffer);
zum (Lassen xrView of xrViewerPose.views) {
}
}
}
Übergeben Sie das XRViewport-Objekt an den WebGLRenderingContext
EIN XRView
objeto se refiere a lo que se puede observar en una pantalla. Pero para dibujar en esa vista, necesito coordenadas y dimensiones que sean específicas de mi dispositivo. Del mismo modo que con el framebuffer, los solicito al XRWebGLLayer
und gib sie weiter
WebGLRenderingContext
.
Funktion onXRFrame(hrTime, xrFrame) {
Lassen xrSession = xrFrame.Sitzung;
xrSession.requestAnimationFrame(onXRFrame);
Lassen xrViewerPose = xrFrame.getViewerPose(xrRefSpace);
wenn (xrViewerPose) {
Lassen glLayer = xrSession.renderState.baseLayer;
webGLRenContext.bindFramebuffer(webGLRenContext.FRAMEBUFFER, glLayer.framebuffer);
zum (Lassen xrView of xrViewerPose.views) {
Lassen viewport = glLayer.getViewport(xrView);
webGLRenContext.viewport(viewport.x, viewport.y, viewport.Breite, viewport.Höhe);
}
}
}
Der webGLRenContext
Al escribir este post, tuve un debate con algunos colegas sobre el nombre del webGLRenContext
objeto. Los Skripte de muestra y la mayoría del código WebXR básicamente llaman a esta variable gl
. Cuando estaba trabajando para saber las muestras, seguía olvidando lo que gl
bezogen auf. ich nannte es webGLRenContext
um Sie daran zu erinnern, wie Sie erfahren, dass dies ein Beispiel für ist WebGLRenderingContext
.
La razón es que utilizar gl
posibilita que los nombres de los métodos se parezcan a sus contrapartes en la API de OpenGL ES 2.0, que se usa para crear realidad virtual en lenguajes compilados. Este hecho es obvio si ha escrito aplicaciones de realidad virtual utilizando OpenGL, pero confuso si es absolutamente nuevo en esta tecnología.
Zeichne etwas in den Framebuffer
Si se siente verdaderamente ambicioso, puede utilizar WebGL de forma directa, pero no lo recomiendo. Es mucho más sencillo usar uno de los marcos enumerados en la parte superior.
Fazit
Este no es el final de las actualizaciones o posts de WebXR. Puedes hallar un Referenz für alle Schnittstellen und Mitglieder von WebXR
in MDN. Befolgen Sie für bevorstehende Verbesserungen der Benutzeroberfläche die einzelnen Funktionen unter Chrome-Status.
Foto von JESHOOTS.COM im Unsplash