Passer au contenu principal




Tout sur la boucle de cadre

Recientemente, publiqué la realité virtuel llega a la la toile, une Publier que presenta conceptos básicos detrás de la API de périphérique WebXR. Además proporcioné instrucciones para solicitar, acceder y culminar una sesión de XR.

Este post describe el bucle de tramas, que es un bucle infinito controlado por el usuario-agente en el que el Contenu se dibuja repetidamente en la pantalla. El contenido se dibuja en bloques discretos llamados marcos. La sucesión de fotogramas crea la ilusión de movimiento.

Qu'est-ce que cet article n'est pas?

WebGL y WebGL2 son los únicos medios para representar contenido durante un bucle de cuadro en una aplicación WebXR. Por suerte, muchos marcos proporcionan una capa de abstracción al mismo tiempo de WebGL y WebGL2. Dichos marcos incluyen three.js,
babylonjsy
Playcanvas, alors que Un cadre y
Reaccionar 360 están diseñados para interactuar con WebXR.

Este post no es un tutorial de WebGL ni de cadre. Explica los conceptos básicos de un bucle de fotogramas usando la muestra de sesión de realidad virtual inmersiva del Grupo de trabajo web inmersivo (manifestation,
Fontaine). Si desea sumergirse en WebGL o en uno de los marcos, Internet proporciona una lista creciente de posts.

Les joueurs et le jeu

Cuando trataba de comprender el bucle de cuadros, seguía perdiéndome en los detalles. Hay muchos objetos en juego, y algunos de ellos solo se nombran por propiedades de referencia en otros objetos. Para ayudarte a mantenerlo claro, describiré los objetos, a los que llamo «jugadores». Posteriormente describiré cómo interactúan, a lo que llamo «el juego».

Les joueurs

XRViewerPose

Una pose es la posición y orientación de algo en el espacio 3D. Tanto los espectadores como los dispositivos de entrada disponen una pose, pero lo que nos preocupa aquí es la pose del espectador. Ambas poses de visor y dispositivo de entrada disponen transformer attribut que describe su posición como vector y su orientación como un cuaternión relativo al origen. El origen se especifica en función del tipo de espacio de referencia solicitado al llamar XRSession.requestReferenceSpace ().

Los espacios de referencia tardan un poco en explicarse. Los cubro en profundidad en realidad aumentada. La muestra que estoy utilizando como base para este post utiliza un 'local' l'espace de référence, ce qui signifie que l'origine est dans la position du spectateur au moment de la création de la session sans plancher bien défini, et sa position précise peut varier en fonction de la plateforme.

XRView

Una vista corresponde a una cámara que visualiza la escena virtual. Una vista además cuenta con una
transformer atributo que describe su posición como vector y su orientación. Estos se proporcionan como un par de vector / cuaternión y como una matriz idéntico, puede utilizar cualquiera de las representaciones dependiendo de cuál se ajuste mejor a su código. Cada vista corresponde a una pantalla o una parte de una pantalla utilizada por un dispositivo para presentar imágenes al espectador. XRView les objets sont renvoyés dans un tableau à partir de XRViewerPose objeto. El número de vistas de la matriz varía. En los dispositivos móviles, una escena de RA cuenta con una vista, que puede o no cubrir la pantalla del dispositivo. Los auriculares suelen tener dos vistas, una para cada ojo.

XRWebGLLayer

Les calques fournissent une source pour les images bitmap et des descriptions de la façon dont ces images doivent être rendues sur l'appareil. Cette description ne rend pas compte de ce que fait ce lecteur. J'en suis venu à le considérer comme un intermédiaire entre un appareil et un
WebGLRenderingContext. MDN partage le même point de vue, affirmant qu'il «fournit un lien» entre les deux. En tant que tel, il donne accès aux autres joueurs.

En général, les objets WebGL stockent des informations d'état pour le rendu des graphiques 2D et 3D.

WebGLFramebuffer

Un framebuffer fournit des données d'image au WebGLRenderingContext. Posteriormente de recuperarlo del XRWebGLLayer, básicamente pásalo a la corriente
WebGLRenderingContext. En plus d'appeler bindFramebuffer () (más sobre eso más adelante) nunca accederá a este objeto de forma directa. Básicamente lo pasará del XRWebGLLayer au WebGLRenderingContext.

XRViewport

Une fenêtre graphique fournit les coordonnées et les dimensions d'une région rectangulaire dans le WebGLFramebuffer.

WebGLRenderingContext

Un contexto de representación es un punto de acceso programático para un lienzo (el espacio en el que estamos dibujando). Para hacer esto, requiere un WebGLFramebuffer et un XRViewport.

Note la vinculación entre XRWebGLLayer y WebGLRenderingContext. L'un correspond à l'appareil du spectateur et l'autre correspond à la page Web.
WebGLFramebuffer y XRViewport ils vont du premier au second.

joueurs-2246022

La vinculación entre XRWebGLLayer y WebGLRenderingContext

Le jeu

Ahora que sabemos quiénes son los jugadores, veamos el juego que juegan. Es un juego que comienza de nuevo con cada fotograma. Recuerde que los fotogramas son parte de un bucle de fotogramas que surge a una velocidad que depende del Matériel subyacente. Para las aplicaciones de realidad virtual, los fps pueden oscilar entre 60 y 144. AR para Android se ejecuta a 30 fps. Su código no debe hacerse cargo ninguna velocidad de fotogramas en particular.

El procedimiento básico para el bucle de cuadro se ve así:

  1. Appel XRSession.requestAnimationFrame (). En respuesta, el agent utilisateur invoca el XRFrameRequestCallback, que usted establece.
  2. À l'intérieur de votre fonction de rappel:
    1. Appel XRSession.requestAnimationFrame () de nouveau.
    2. Prenez la pose du spectateur.
    3. Passez ('link') le WebGLFramebuffer depuis le XRWebGLLayer au WebGLRenderingContext.
    4. Itérer sur chaque XRView objet, récupérant son XRViewport depuis le XRWebGLLayer et transmettez-le à WebGLRenderingContext.
    5. Dessinez quelque chose dans le framebuffer.

Como los pasos 1 y 2a se trataron en el post anterior, comenzaré en el paso 2b.

Obtenez la pose du spectateur

Probablemente no es necesario decirlo. Para dibujar cualquier cosa en AR o VR, necesito saber dónde está el espectador y hacia dónde está mirando. La posición y la orientación del espectador son proporcionadas por un Objet XRViewerPose. Je reçois la pose du spectateur qui appelle XRFrame.getViewerPose () dans l'image d'animation actuelle. Je vous passe l'espace de référence que j'ai acquis lors de la mise en place de la session. Les valeurs renvoyées par cet objet sont toujours relatives à l'espace de référence que j'ai demandé lors de mon entrée dans la session en cours. Comme vous vous en souvenez peut-être, je dois passer l'espace de référence actuel lors de la demande de pose.

une fonction onXRFrame(hrTime, xrFrame) {
laisser xrSession = xrFrame.session;
xrSession.requestAnimationFrame(onXRFrame);
laisser xrViewerPose = xrFrame.getViewerPose(xrRefSpace);
si (xrViewerPose) {

}
}

Hay una pose del espectador que representa la posición general del Nom d'utilisateur, dicho de otra forma, la cabeza del espectador o la cámara del teléfono en el caso de un teléfono inteligente. La pose le dice a su aplicación dónde está el espectador. Usos reales de renderizado de imágenes
XRView objets, sur lesquels j'aborderai dans un instant.

Antes de continuar, pruebo si la pose del espectador fue devuelta en caso de que el sistema pierda el seguimiento o bloquee la pose por razones de privacidad. El seguimiento es la capacidad del dispositivo XR para comprender dónde está y / o sus dispositivos de entrada en vinculación con el entorno. El seguimiento se puede perder de varias formas y varía según el método utilizado para realizar el seguimiento. A modo de ejemplo, si se usan cámaras en los auriculares o en el teléfono para rastrear, el dispositivo puede perder su capacidad para establecer dónde se encuentra en situaciones con poca luz o sin luz, o si las cámaras están cubiertas.

Un ejemplo de bloqueo de la pose por motivos de privacidad es que si el auricular muestra un cuadro de diálogo de seguridad, como una solicitud de permiso, el le navigateur puede dejar de proporcionar poses a la aplicación mientras esto ocurre. Pero ya llamé
XRSession.requestAnimationFrame () de modo que si el sistema puede recuperarse, el bucle de tramas continuará. Caso contrario, el agente de usuario finalizará la sesión y llamará al
finir gestionnaire d'événements.

Un petit détour

El paso siguiente necesita objetos creados durante la configuración de la sesión. Recuerde que creé un lienzo y le indiqué que creara un contexto de representación Web GL compatible con XR, que obtuve llamando canvas.getContext (). Todo el dibujo se realiza a través de la API de WebGL, la API de WebGL2 o un marco basado en WebGL como Three.js. Este contexto se pasó al objeto de sesión a través de updateRenderState (), avec une nouvelle instance de XRWebGLLayer.

laisser canvas = document.createElement('canvas');
laisser webGLRenContext = canvas.getContext('webgl', { xrCompatible: vrai });
xrSession.updateRenderState({
baseLayer: new XRWebGLLayer(xrSession, webGLRenContext)
});

Passer ('bind') le WebGLFramebuffer

Les XRWebGLLayer fournit un framebuffer pour le WebGLRenderingContext
fourni spécifiquement pour une utilisation avec WebXR et remplaçant le framebuffer par défaut pour les contextes de rendu. C'est ce qu'on appelle «liaison» dans le langage de WebGL.

une fonction onXRFrame(hrTime, xrFrame) {
laisser xrSession = xrFrame.session;
xrSession.requestAnimationFrame(onXRFrame);
laisser xrViewerPose = xrFrame.getViewerPose(xrRefSpace);
si (xrViewerPose) {
laisser glLayer = xrSession.renderState.baseLayer;
webGLRenContext.bindFramebuffer(webGLRenContext.FRAMEBUFFER, glLayer.framebuffer);

}
}

Itérer sur chaque objet XRView

Posteriormente de conseguir la pose y vincular el framebuffer, es hora de conseguir las ventanas gráficas. los XRViewerPose contient un tableau d'interfaces XRView, chacune représentant un écran ou une partie d'écran. Ils contiennent les informations nécessaires pour rendre le contenu correctement positionné pour l'appareil et le spectateur, comme le champ de vision, le mouvement des yeux et d'autres propriétés optiques. En tant que dessin à deux yeux, j'ai deux vues, que je parcoure en boucle et dessine une image distincte pour chacune.

Al poner en práctica para la realidad aumentada basada en teléfonos, solo tendría una vista, pero todavía usaría un bucle. Aún cuando puede parecer inútil iterar a través de una vista, hacerlo le posibilita tener una única ruta de renderizado para un espectro de experiencias inmersivas. Esta es una diferencia importante entre WebXR y otros sistemas inmersivos.

une fonction onXRFrame(hrTime, xrFrame) {
laisser xrSession = xrFrame.session;
xrSession.requestAnimationFrame(onXRFrame);
laisser xrViewerPose = xrFrame.getViewerPose(xrRefSpace);
si (xrViewerPose) {
laisser glLayer = xrSession.renderState.baseLayer;
webGLRenContext.bindFramebuffer(webGLRenContext.FRAMEBUFFER, glLayer.framebuffer);
pour (laisser xrView of xrViewerPose.views) {

}
}
}

Passez l'objet XRViewport à WebGLRenderingContext

UNE XRView objeto se refiere a lo que se puede observar en una pantalla. Pero para dibujar en esa vista, necesito coordenadas y dimensiones que sean específicas de mi dispositivo. Del mismo modo que con el framebuffer, los solicito al XRWebGLLayer et les passer à
WebGLRenderingContext.

une fonction onXRFrame(hrTime, xrFrame) {
laisser xrSession = xrFrame.session;
xrSession.requestAnimationFrame(onXRFrame);
laisser xrViewerPose = xrFrame.getViewerPose(xrRefSpace);
si (xrViewerPose) {
laisser glLayer = xrSession.renderState.baseLayer;
webGLRenContext.bindFramebuffer(webGLRenContext.FRAMEBUFFER, glLayer.framebuffer);
pour (laisser xrView of xrViewerPose.views) {
laisser viewport = glLayer.getViewport(xrView);
webGLRenContext.viewport(viewport.X, viewport.y, viewport.largeur, viewport.la taille);

}
}
}

Le webGLRenContext

Al escribir este post, tuve un debate con algunos colegas sobre el nombre del webGLRenContext objeto. Los scripts de muestra y la mayoría del código WebXR básicamente llaman a esta variable gl. Cuando estaba trabajando para saber las muestras, seguía olvidando lo que gl visé. Je l'ai appelé webGLRenContext pour vous rappeler en apprenant qu'il s'agit d'un exemple de WebGLRenderingContext.

La razón es que utilizar gl posibilita que los nombres de los métodos se parezcan a sus contrapartes en la API de OpenGL ES 2.0, que se usa para crear realidad virtual en lenguajes compilados. Este hecho es obvio si ha escrito aplicaciones de realidad virtual utilizando OpenGL, pero confuso si es absolutamente nuevo en esta tecnología.

Dessinez quelque chose dans le framebuffer

Si se siente verdaderamente ambicioso, puede utilizar WebGL de forma directa, pero no lo recomiendo. Es mucho más sencillo usar uno de los marcos enumerados en la parte superior.

conclusion

Este no es el final de las actualizaciones o posts de WebXR. Puedes hallar un référence pour toutes les interfaces et membres de WebXR
dans MDN. Pour les améliorations d'interface à venir, suivez les fonctionnalités individuelles sur État de Chrome.

photo par JESHOOTS.COM au Unsplash