ARKit & OpenGL ES - ARKit 原理及实现

简介:

原理篇

如果你想了解更多关于OpenGL ES的知识,请移步至OpenGL ES相关文章目录

本文所用的代码在https://github.com/SquarePants1991/OpenGLESLearn.git的ARKit分支中。

iOS11推出了新框架ARKit,通过ARKit和SceneKit可以很方便的制作AR App。苹果也提供了AR基本的应用框架,你可以直接从此开始你的AR App的开发。

应用框架

不过本系列文章将使用OpenGL ES为ARKit提供渲染支持,接下来我们先去了解一下ARKit的理论相关知识。

AR基本概念

AR最基本的概念就是将虚拟的计算机图形和真实环境结合的技术。该技术有很多种实现方式。

  • 使用2D或者3D图形装饰人脸,常见于一些相机和视频类App,主要使用人脸识别追踪技术。

  • 基于标记的3D模型放置,比如基于AR的故事书,阴阳师的现世召唤。标记可以是简单的黑框包裹的标记,也可以是一张复杂图片的特征点训练数据。如果你感兴趣可以前往ARToolKit,这是一个开源的AR框架,主要用于基于标记的AR。最近出ARToolkit6 Beta了,不知道有没有新的功能开放。

  • 追踪真实环境的特征点,计算真实摄像机在真实环境的位置。所谓特征点,就是图片中灰度变化比较剧烈的位置,所以想要更精准稳定的计算,就需要真实环境的颜色变化比较丰富。ARKit就是使用这种原理进行摄像机定位的。

世界追踪(WorldTracking)

通过追踪真实世界的特征点,计算真实摄像机位置并应用到3D世界的虚拟摄像机是AR实现中最重要的部分。计算结果的精确性直接影响到渲染出来的结果。ARKit使用ARSession来管理整个AR处理流程,包括摄像机位置的计算。

 
  1. #pragma make - AR Control 
  2. - (void)setupAR { 
  3.     if (@available(iOS 11.0, *)) { 
  4.         self.arSession = [ARSession new]; 
  5.         self.arSession.delegate = self; 
  6.     } 
  7.   
  8. - (void)runAR { 
  9.     if (@available(iOS 11.0, *)) { 
  10.         ARWorldTrackingSessionConfiguration *config = [ARWorldTrackingSessionConfiguration new]; 
  11.         config.planeDetection = ARPlaneDetectionHorizontal; 
  12.         [self.arSession runWithConfiguration:config]; 
  13.     } 
  14.   
  15. - (void)pauseAR { 
  16.     if (@available(iOS 11.0, *)) { 
  17.         [self.arSession pause]; 
  18.     } 

使用ARSession的方式很简单,初始化,设置delegate,开启ARSession需要传入一个配置ARWorldTrackingSessionConfiguration,ARWorldTrackingSessionConfiguration代表AR系统会追踪真实世界的特征点,计算摄像机位置。苹果以后也有可能会出ARMarkerTrackingSessionConfiguration之类用来识别追踪标记的配置吧。ARSession开启后会启动相机,并且会通过传感器感知手机位置。借用WWDC中的一张图。

WWDC

ARSession综合相机捕获的视频流和位置信息生成一系列连续的ARFrame。

 
  1. - (void)session:(ARSession *)session didUpdateFrame:(ARFrame *)frame { 
  2. ... 

每个ARFrame包含了从相机捕捉的图片,相机位置相关信息等。在这个方法里我们需要绘制相机捕捉的图片。根据相机位置等信息绘制3D物体等。

平面检测

ARKit提供了另一个很酷的功能,检测真实世界的平面,并提供一个ARPlaneAnchor对象描述平面的位置,大小,方向等信息。

 
  1. - (void)runAR { 
  2.     if (@available(iOS 11.0, *)) { 
  3.         ARWorldTrackingSessionConfiguration *config = [ARWorldTrackingSessionConfiguration new]; 
  4.         config.planeDetection = ARPlaneDetectionHorizontal; 
  5.         [self.arSession runWithConfiguration:config]; 
  6.     } 

上面的config.planeDetection = ARPlaneDetectionHorizontal;设置了检测平面的类型是水平。不过目前也就只有这一个选项可以选。如果ARKit检测到了平面,会通过delegate中的方法- (void)session:(ARSession *)session didAddAnchors:(NSArray

Hit Test

Hit Test可以让你方便的在检测到的平面上放置物体。当你点击屏幕时,使用Hit Test可以检测出你点击的位置有哪些平面,并且提供ARAnchor用于设置放置物体的位置。

 
  1. [frame hitTest:CGPointMake(0.5, 0.5) types:ARHitTestResultTypeExistingPlane]; 

使用ARFrame的hitTest方法,第一个传入的点取值范围从(0,0)到(1,1),第二个参数代表可以检测哪些对象。可以检测到的对象如下。

  • ARHitTestResultTypeFeaturePoint,根据距离最近的特征点检测出来的连续表面。

  • ARHitTestResultTypeEstimatedHorizontalPlane,非精准方式计算出来与重力垂直的平面。

  • ARHitTestResultTypeExistingPlane, 已经检测出来的平面,检测时忽略平面本身大小,把它看做一个无穷大的平面。

  • ARHitTestResultTypeExistingPlaneUsingExtent, 已经检测出来的平面,检测时考虑平面本身的大小。

检测成功则返回NSArray*,ARHitTestResult中包含检测类型,相交点的距离,平面的ARAnchor。注意只有检测到ARHitTestResultTypeExistingPlane和ARHitTestResultTypeExistingPlaneUsingExtent才会有ARAnchor。这四个检测类型是可以通过|的方式同时存在的,比如ARHitTestResultTypeEstimatedHorizontalPlane |  ARHitTestResultTypeExistingPlane。

光线强度调节

ARKit还提供了一个检测光照强度的功能,主要为了让3D模型的光照和环境的光照强度保持一致。在ARFrame中有一个lightEstimate的变量,如果检测光照强度成功,则会有值。值的类型为ARLightEstimate,其中只包含一个变量ambientIntensity。在3D光照模型中,它对应环境光,它的值从0 ~ 2000。使用OpenGL渲染时,可以使用这个值调整光照模型中的环境光强度。

ARKit的理论知识差不多到此结束了,下一篇将会介绍如何使用OpenGL ES渲染ARFrame里的内容。

实现篇

本文所用的代码在https://github.com/SquarePants1991/OpenGLESLearn.git的ARKit分支中。

本文所用OpenGL基础代码来自OpenGL ES系列,具备渲染几何体,纹理等基础功能,实现细节将不赘述。

集成ARKit的关键代码都在ARGLBaseViewController中。我们来看一下它的代码。

处理ARFrame

 
  1. - (void)session:(ARSession *)session didUpdateFrame:(ARFrame *)frame { 
  2.     // 同步YUV信息到 yTexture 和 uvTexture 
  3.     CVPixelBufferRef pixelBuffer = frame.capturedImage; 
  4.     GLsizei imageWidth = (GLsizei)CVPixelBufferGetWidthOfPlane(pixelBuffer, 0); 
  5.     GLsizei imageHeight = (GLsizei)CVPixelBufferGetHeightOfPlane(pixelBuffer, 0); 
  6.     void * baseAddress = CVPixelBufferGetBaseAddressOfPlane(pixelBuffer, 0); 
  7.   
  8.     glBindTexture(GL_TEXTURE_2D, self.yTexture); 
  9.     glTexImage2D(GL_TEXTURE_2D, 0, GL_LUMINANCE, imageWidth, imageHeight, 0, GL_LUMINANCE, GL_UNSIGNED_BYTE, baseAddress); 
  10.     glBindTexture(GL_TEXTURE_2D, 0); 
  11.   
  12.     imageWidth = (GLsizei)CVPixelBufferGetWidthOfPlane(pixelBuffer, 1); 
  13.     imageHeight = (GLsizei)CVPixelBufferGetHeightOfPlane(pixelBuffer, 1); 
  14.     void *laAddress = CVPixelBufferGetBaseAddressOfPlane(pixelBuffer, 1); 
  15.     glBindTexture(GL_TEXTURE_2D, self.uvTexture); 
  16.     glTexImage2D(GL_TEXTURE_2D, 0, GL_LUMINANCE_ALPHA, imageWidth, imageHeight, 0, GL_LUMINANCE_ALPHA, GL_UNSIGNED_BYTE, laAddress); 
  17.     glBindTexture(GL_TEXTURE_2D, 0); 
  18.   
  19.     self.videoPlane.yuv_yTexture = self.yTexture; 
  20.     self.videoPlane.yuv_uvTexture = self.uvTexture; 
  21.     [self setupViewport: CGSizeMake(imageHeight, imageWidth)]; 
  22.   
  23.     // 同步摄像机 
  24.     matrix_float4x4 cameraMatrix = matrix_invert([frame.camera transform]); 
  25.     GLKMatrix4 newCameraMatrix = GLKMatrix4Identity; 
  26.     for (int col = 0; col < 4; ++col) { 
  27.         for (int row = 0; row < 4; ++row) { 
  28.             newCameraMatrix.m[col * 4 + row] = cameraMatrix.columns[col][row]; 
  29.         } 
  30.     } 
  31.   
  32.     self.cameraMatrix = newCameraMatrix; 
  33.     GLKVector3 forward = GLKVector3Make(-self.cameraMatrix.m13, -self.cameraMatrix.m23, -self.cameraMatrix.m33); 
  34.     GLKMatrix4 rotationMatrix = GLKMatrix4MakeRotation(M_PI / 2, forward.x, forward.y, forward.z); 
  35.     self.cameraMatrix = GLKMatrix4Multiply(rotationMatrix, newCameraMatrix); 

上面的代码展示了如何处理ARKit捕捉的ARFrame,ARFrame的capturedImage存储了摄像头捕捉的图片信息,类型是CVPixelBufferRef。默认情况下,图片信息的格式是YUV,通过两个Plane来存储,也可以理解为两张图片。一张格式是Y(Luminance),保存了明度信息,另一张是UV(Chrominance、Chroma),保存了色度和浓度。我们需要把这两张图分别绑定到不同的纹理上,然后在Shader中利用算法将YUV转换成RGB。下面是处理纹理的Fragment Shader,利用公式进行颜色转换。

 
 
  1. precision highp float
  2.   
  3. varying vec3 fragNormal; 
  4. varying vec2 fragUV; 
  5.   
  6. uniform float elapsedTime; 
  7. uniform mat4 normalMatrix; 
  8. uniform sampler2D yMap; 
  9. uniform sampler2D uvMap; 
  10.   
  11. void main(void) { 
  12.     vec4 Y_planeColor = texture2D(yMap, fragUV); 
  13.     vec4 CbCr_planeColor = texture2D(uvMap, fragUV); 
  14.   
  15.     float Cb, Cr, Y; 
  16.     float R ,G, B; 
  17.     Y = Y_planeColor.r * 255.0; 
  18.     Cb = CbCr_planeColor.r * 255.0 - 128.0; 
  19.     Cr = CbCr_planeColor.a * 255.0 - 128.0; 
  20.   
  21.     R = 1.402 * Cr + Y; 
  22.     G = -0.344 * Cb - 0.714 * Cr + Y; 
  23.     B = 1.772 * Cb + Y; 
  24.   
  25.   
  26.     vec4 videoColor = vec4(R / 255.0, G / 255.0, B / 255.0, 1.0); 
  27.     gl_FragColor = videoColor; 

理并绑定好纹理后,为了保证不同屏幕尺寸下,纹理不被非等比拉伸,所以对viewport进行重了新计算[self setupViewport: CGSizeMake(imageHeight, imageWidth)];。接下来将ARKit计算出来的摄像机的变换赋值给self.cameraMatrix。注意ARKit捕捉的图片需要旋转90度后才能正常显示,所以在设置Viewport时特意颠倒了宽和高,并在最后对摄像机进行了旋转。

VideoPlane

VideoPlane是为了显示视频编写的几何体,它能够接收两个纹理,Y和UV。

 
  1. @interface VideoPlane : GLObject 
  2. @property (assign, nonatomic) GLuint yuv_yTexture; 
  3. @property (assign, nonatomic) GLuint yuv_uvTexture; 
  4. - (instancetype)initWithGLContext:(GLContext *)context; 
  5. - (void)update:(NSTimeInterval)timeSinceLastUpdate; 
  6. - (void)draw:(GLContext *)glContext; 
  7. @end 
  8.   
  9. ... 
  10.   
  11. - (void)draw:(GLContext *)glContext { 
  12.     [glContext setUniformMatrix4fv:@"modelMatrix" value:self.modelMatrix]; 
  13.     bool canInvert; 
  14.     GLKMatrix4 normalMatrix = GLKMatrix4InvertAndTranspose(self.modelMatrix, &canInvert); 
  15.     [glContext setUniformMatrix4fv:@"normalMatrix" value:canInvert ? normalMatrix : GLKMatrix4Identity]; 
  16.     [glContext bindTextureName:self.yuv_yTexture to:GL_TEXTURE0 uniformName:@"yMap"]; 
  17.     [glContext bindTextureName:self.yuv_uvTexture to:GL_TEXTURE1 uniformName:@"uvMap"]; 
  18.     [glContext drawTrianglesWithVAO:vao vertexCount:6]; 

其他的功能很简单,就是绘制一个正方形,最终配合显示视频的Shader,渲染YUV格式的数据。

透视投影矩阵

在ARFrame可以获取渲染需要的纹理和摄像机矩阵,除了这些,和真实摄像头匹配的透视投影矩阵也是必须的。它能够让渲染出来的3D物体透视看起来很自然。

 
  1. - (void)session:(ARSession *)session cameraDidChangeTrackingState:(ARCamera *)camera { 
  2.     matrix_float4x4 projectionMatrix = [camera projectionMatrixWithViewportSize:self.viewport.size orientation:UIInterfaceOrientationPortrait zNear:0.1 zFar:1000]; 
  3.     GLKMatrix4 newWorldProjectionMatrix = GLKMatrix4Identity; 
  4.     for (int col = 0; col < 4; ++col) { 
  5.         for (int row = 0; row < 4; ++row) { 
  6.            newWorldProjectionMatrix.m[col * 4 + row] = projectionMatrix.columns[col][row]; 
  7.         } 
  8.     } 
  9.     self.worldProjectionMatrix = newWorldProjectionMatrix; 

上面的代码演示了如何通过ARKit获取3D透视投影矩阵,有了透视投影矩阵和摄像机矩阵,就可以很方便的利用OpenGL渲染物体了。

 
  1. - (void)glkView:(GLKView *)view drawInRect:(CGRect)rect { 
  2.     [super glkView:view drawInRect:rect]; 
  3.   
  4.     [self.objects enumerateObjectsUsingBlock:^(GLObject *obj, NSUInteger idx, BOOL *stop) { 
  5.         [obj.context active]; 
  6.         [obj.context setUniform1f:@"elapsedTime" value:(GLfloat)self.elapsedTime]; 
  7.         [obj.context setUniformMatrix4fv:@"projectionMatrix" value:self.worldProjectionMatrix]; 
  8.         [obj.context setUniformMatrix4fv:@"cameraMatrix" value:self.cameraMatrix]; 
  9.   
  10.         [obj.context setUniform3fv:@"lightDirection" value:self.lightDirection]; 
  11.         [obj draw:obj.context]; 
  12.     }]; 

本文主要介绍了OpenGL ES渲染ARKit的基本思路,没有对OpenGL ES技术细节描述太多。如果你有兴趣,可以直接clone Github上的代码深入了解。


作者:佚名

来源:51CTO

相关文章
|
前端开发 Android开发
OpenGL ES 实现刮刮卡和手写板功能
本文尝试使用 OpenGL 来实现类似刮刮卡的功能,简而言之就是**利用 OpenGL 根据手指滑动的坐标去构建一条一条的带状网格,然后基于此网格实现纹理映射。**为了使带状图形(网格)看起来平滑自然,我们还需要在起点和终点位置构建 2 个半圆,使滑动轨迹看起来平滑自然。
229 0
OpenGL ES 实现刮刮卡和手写板功能
|
vr&ar
NDK OpenGL ES 3.0 开发(十九):相机抖音滤镜
文主要介绍抖音短视频 App 里面一些常见滤镜的实现,这里只做抛砖引玉,玩滤镜主要靠想象力去实现一些酷炫的效果。
205 0
NDK OpenGL ES 3.0 开发(十九):相机抖音滤镜