安卓纸板 VR 项目(三)
原文:
zh.annas-archive.org/md5/94E6723D45DBCC15CF10E16526443AE5译者:飞龙
第六章:太阳系
当我 8 岁的时候,在学校的一个科学项目中,我用电线、聚苯乙烯泡沫球和油漆制作了一个太阳系。今天,全世界的 8 岁孩子们都可以在 VR 中制作虚拟太阳系,特别是如果他们读了这一章!这个项目创建了一个模拟我们太阳系的 Cardboard VR 应用程序。也许不是完全科学准确,但对于一个孩子的项目来说已经足够好了,比聚苯乙烯泡沫球要好。
在本章中,您将使用RenderBox库创建一个新的太阳系项目,执行以下步骤:
-
设置新项目
-
创建一个
Sphere组件和一个纯色材料 -
添加带照明的“地球”纹理材料
-
安排太阳系的几何形状
-
天体的动画
-
交互式更改相机位置
-
使用我们的新代码更新
RenderBox库
当我们将它们放在一起时,我们将从一个球体创建行星和卫星。然而,大部分代码将用于渲染这些天体的各种材料和着色器。
注意
此项目的源代码可以在 Packt Publishing 网站上找到,并且在 GitHub 上也可以找到github.com/cardbookvr/solarsystem(每个主题作为单独的提交)。
设置新项目
为了构建此项目,我们将使用我们在第五章中创建的RenderBox库,RenderBox 引擎。您可以使用您自己的库,或者从本书提供的可下载文件或我们的 GitHub 存储库中获取副本(使用标记为after-ch5的提交——github.com/cardbookvr/renderboxlib/releases/tag/after-ch5)。有关如何导入RenderBox库的更详细说明,请参阅第五章的最终在未来项目中使用 RenderBox部分,RenderBox 引擎。执行以下步骤创建新项目:
-
在打开的 Android Studio 中创建一个新项目。让我们将其命名为
SolarSystem,并针对Android 4.4 KitKat (API 19)使用空活动。 -
为
renderbox、common和core包创建新模块,使用文件 | 新建模块 | 导入.JAR/.AAR 包。 -
将模块设置为应用程序的依赖项,使用文件 | 项目结构。
-
按照第二章中的说明编辑
build.gradle文件,骨架 Cardboard 项目,以编译 SDK 22。 -
更新
/res/layout/activity_main.xml和AndroidManifest.xml,如前几章所述。 -
将
MainActivity编辑为class MainActivity extends CardboardActivity implements IRenderBox,并实现接口方法存根(Ctrl + I)。
我们可以继续在MainActivity中定义onCreate方法。该类现在具有以下代码:
public class MainActivity extends CardboardActivity implements IRenderBox {
private static final String TAG = "SolarSystem";
@Override
protected void onCreate(Bundle savedInstanceState) {
super.onCreate(savedInstanceState);
setContentView(R.layout.activity_main);
CardboardView cardboardView = (CardboardView) findViewById(R.id.cardboard_view);
cardboardView.setRenderer(new RenderBox(this, this));
setCardboardView(cardboardView);
}
@Override
public void setup() {
}
@Override
public void preDraw() {
}
@Override
public void postDraw() {
}
}
在构建此项目时,我们将创建一些新的类,这些类可能是RenderBox库的良好扩展。我们将首先将它们作为常规类放入此项目。然后,在本章末尾,我们将帮助您将它们移入RenderBox库项目并重新构建该库:
-
右键单击
solarsystem文件夹(com.cardbookvr.solarsystem),选择新建 | 包,并命名为RenderBoxExt。 -
在
RenderBoxExt中,创建名为components和materials的包子文件夹。
没有真正的技术需要将其制作成一个单独的包,但这有助于组织我们的文件,因为RenderBoxExt中的文件将在本章末尾移入我们可重用的库中。
您可以将一个立方体临时添加到场景中,以确保一切设置正确。将其添加到setup方法中,如下所示:
public void setup() {
new Transform()
.setLocalPosition(0,0,-7)
.setLocalRotation(45,60,0)
.addComponent(new Cube(true));
}
如果您还记得,立方体是添加到变换中的一个组件。立方体定义了它的几何形状(例如,顶点)。变换定义了它在 3D 空间中的位置、旋转和缩放。
您应该能够在 Android 设备上点击Run 'app',并且看到立方体和 Cardboard 分屏视图,没有编译错误。
创建一个球体组件
我们的太阳系将由球体构成,代表行星、卫星和太阳。让我们首先创建一个Sphere组件。我们将定义一个球体,它是由形成球体表面的顶点三角网格组成的(有关三角网格的更多信息,请参阅en.wikipedia.org/wiki/Triangle_mesh)。
右键单击RenderBoxExt/components文件夹,选择New | Java Class,并将其命名为Sphere。将其定义为public class Sphere extends RenderObject:
public class Sphere extends RenderObject{
private static final String TAG = "RenderBox.Sphere";
public Sphere() {
super();
allocateBuffers();
}
}
构造函数调用一个辅助方法allocateBuffers,该方法为顶点、法线、纹理和索引分配缓冲区。让我们在类的顶部声明这些变量:
public static FloatBuffer vertexBuffer;
public static FloatBuffer normalBuffer;
public static FloatBuffer texCoordBuffer;
public static ShortBuffer indexBuffer;
public static int numIndices;
请注意,我们决定将缓冲区声明为public,以便在为对象创建任意纹理材料时具有未来的灵活性。
我们将定义一个半径为 1 的球体。它的顶点由 24 个经度部分(如同一天中的小时)和 16 个纬度部分排列,为我们的目的提供了足够的分辨率。顶部和底部盖子分开处理。这是一个很长的方法,所以我们将为您分解它。这是代码的第一部分,我们在其中声明和初始化变量,包括顶点数组。与我们的Material设置方法类似,我们只需要一次性分配Sphere缓冲区,在这种情况下,我们使用顶点缓冲区变量来跟踪这种状态。如果它不为空,则已经分配了缓冲区。否则,我们应该继续执行该函数,该函数将设置这个值:
public static void allocateBuffers(){
//Already allocated?
if (vertexBuffer != null) return;
//Generate a sphere model
float radius = 1f;
// Longitude |||
int nbLong = 24;
// Latitude ---
int nbLat = 16;
Vector3[] vertices = new Vector3[(nbLong+1) * nbLat + nbLong * 2];
float _pi = MathUtils.PI;
float _2pi = MathUtils.PI2;
计算顶点位置;首先是顶部和底部,然后沿纬度/经度球形网格:
//Top and bottom vertices are duplicated
for(int i = 0; i < nbLong; i++){
vertices[i] = new Vector3(Vector3.up).multiply(radius);
vertices[vertices.length - i - 1] = new Vector3(Vector3.up).multiply(-radius);
}
for( int lat = 0; lat < nbLat; lat++ )
{
float a1 = _pi * (float)(lat+1) / (nbLat+1);
float sin1 = (float)Math.sin(a1);
float cos1 = (float)Math.cos(a1);
for( int lon = 0; lon <= nbLong; lon++ )
{
float a2 = _2pi * (float)(lon == nbLong ? 0 : lon) / nbLong;
float sin2 = (float)Math.sin(a2);
float cos2 = (float)Math.cos(a2);
vertices[lon + lat * (nbLong + 1) + nbLong] =
new Vector3( sin1 * cos2, cos1, sin1 * sin2 ).multiply(radius);
}
}
接下来,我们计算顶点法线,然后进行纹理映射的 UV:
Vector3[] normals = new Vector3[vertices.length];
for( int n = 0; n < vertices.length; n++ )
normals[n] = new Vector3(vertices[n]).normalize();
Vector2[] uvs = new Vector2[vertices.length];
float uvStart = 1.0f / (nbLong * 2);
float uvStride = 1.0f / nbLong;
for(int i = 0; i < nbLong; i++) {
uvs[i] = new Vector2(uvStart + i * uvStride, 1f);
uvs[uvs.length - i - 1] = new Vector2(1 - (uvStart + i * uvStride), 0f);
}
for( int lat = 0; lat < nbLat; lat++ )
for( int lon = 0; lon <= nbLong; lon++ )
uvs[lon + lat * (nbLong + 1) + nbLong] = new Vector2( (float)lon / nbLong, 1f - (float)(lat+1) / (nbLat+1) );
同一allocateBuffers方法的下一部分生成了连接顶点的三角形索引:
int nbFaces = (nbLong+1) * nbLat + 2;
int nbTriangles = nbFaces * 2;
int nbIndexes = nbTriangles * 3;
numIndices = nbIndexes;
short[] triangles = new short[ nbIndexes ];
//Top Cap
int i = 0;
for( short lon = 0; lon < nbLong; lon++ )
{
triangles[i++] = lon;
triangles[i++] = (short)(nbLong + lon+1);
triangles[i++] = (short)(nbLong + lon);
}
//Middle
for( short lat = 0; lat < nbLat - 1; lat++ )
{
for( short lon = 0; lon < nbLong; lon++ )
{
short current = (short)(lon + lat * (nbLong + 1) + nbLong);
short next = (short)(current + nbLong + 1);
triangles[i++] = current;
triangles[i++] = (short)(current + 1);
triangles[i++] = (short)(next + 1);
triangles[i++] = current;
triangles[i++] = (short)(next + 1);
triangles[i++] = next;
}
}
//Bottom Cap
for( short lon = 0; lon < nbLong; lon++ )
{
triangles[i++] = (short)(vertices.length - lon - 1);
triangles[i++] = (short)(vertices.length - nbLong - (lon+1) - 1);
triangles[i++] = (short)(vertices.length - nbLong - (lon) - 1);
}
最后,将这些计算值应用到相应的vertexBuffer、normalBuffer、texCoordBuffer和indexBuffer数组中,如下所示:
//convert Vector3[] to float[]
float[] vertexArray = new float[vertices.length * 3];
for(i = 0; i < vertices.length; i++){
int step = i * 3;
vertexArray[step] = vertices[i].x;
vertexArray[step + 1] = vertices[i].y;
vertexArray[step + 2] = vertices[i].z;
}
float[] normalArray = new float[normals.length * 3];
for(i = 0; i < normals.length; i++){
int step = i * 3;
normalArray[step] = normals[i].x;
normalArray[step + 1] = normals[i].y;
normalArray[step + 2] = normals[i].z;
}
float[] texCoordArray = new float[uvs.length * 2];
for(i = 0; i < uvs.length; i++){
int step = i * 2;
texCoordArray[step] = uvs[i].x;
texCoordArray[step + 1] = uvs[i].y;
}
vertexBuffer = allocateFloatBuffer(vertexArray);
normalBuffer = allocateFloatBuffer(normalArray);
texCoordBuffer = allocateFloatBuffer(texCoordArray);
indexBuffer = allocateShortBuffer(triangles);
}
这是很多代码,可能在书页上很难阅读;如果您愿意,您可以在项目 GitHub 存储库中找到一份副本。
方便的是,由于球体位于原点(0,0,0)处,每个顶点的法线向量对应于顶点位置本身(从原点辐射到顶点)。严格来说,由于我们使用了半径为 1,我们可以避免“normalize()”步骤来生成法线数组,以进行优化。以下图显示了 24 x 16 顶点球体及其法线向量:
请注意,我们的算法包括一个有趣的修复,避免了极点处的单个顶点(所有 UV 汇聚在一个点上,导致一些旋转的纹理伪影)。
我们在 UV X 上创建nLon-1个共同位置的顶点,偏移量为1/(nLon2)*,在顶部和底部绘制齿。以下图显示了球体的展平 UV 图,说明了极点的齿状:
实色光照的球体
我们将从以实色渲染我们的球体开始,但是使用光照着色。和往常一样,我们首先编写着色器函数,其中包括定义它所使用的Material中的程序变量。然后,我们将定义SolidColorLightingMaterial类,并将其添加到Sphere组件中。
实色光照着色器
在之前的章节中,我们在顶点着色器中进行了光照计算。这更简单(也更快),但是将计算转移到片段着色器会产生更好的结果。原因是,在顶点着色器中,你只有一个法线值可以与光线方向进行比较。在片段着色器中,所有顶点属性都被插值,这意味着在两个顶点之间的给定点的法线值将是它们两个法线之间的某个点。当这种情况发生时,你会看到三角形面上的平滑渐变,而不是在每个顶点周围的局部阴影伪影。我们将创建一个新的Material类来在片段着色器中实现光照。
如果需要,为着色器创建一个 Android 资源目录(资源类型:raw),res/raw/。然后,创建solid_color_lighting_vertex.shader和res/raw/solid_color_lighting_fragment.shader文件,并定义如下。
文件:res/raw/solid_color_lighting_vertex.shader
uniform mat4 u_MVP;
uniform mat4 u_MV;
attribute vec4 a_Position;
attribute vec3 a_Normal;
varying vec3 v_Position;
varying vec3 v_Normal;
void main() {
// vertex in eye space
v_Position = vec3(u_MV * a_Position);
// normal's orientation in eye space
v_Normal = vec3(u_MV * vec4(a_Normal, 0.0));
// point in normalized screen coordinates
gl_Position = u_MVP * a_Position;
}
请注意,我们为u_MV和u_MVP分别有单独的统一变量。另外,如果你还记得,在上一章中,我们将光照模型与实际模型分开,因为我们不希望缩放影响光照计算。同样,投影矩阵只对将相机 FOV 应用于顶点位置有用,并且会干扰光照计算。
文件:res/raw/solid_color_lighting_fragment.shader
precision mediump float; // default medium precision in the fragment shader
uniform vec3 u_LightPos; // light position in eye space
uniform vec4 u_LightCol;
uniform vec4 u_Color;
varying vec3 v_Position;
varying vec3 v_Normal;
varying vec2 v_TexCoordinate;
void main() {
// distance for attenuation.
float distance = length(u_LightPos - v_Position);
// lighting direction vector from the light to the vertex
vec3 lightVector = normalize(u_LightPos - v_Position);
// dot product of the light vector and vertex normal. // If the normal and light vector are
// pointing in the same direction then it will get max // illumination.
float diffuse = max(dot(v_Normal, lightVector), 0.01);
// Add a tiny bit of ambient lighting (this is outerspace)
diffuse = diffuse + 0.025;
// Multiply color by the diffuse illumination level and // texture value to get final output color
gl_FragColor = u_Color * u_LightCol * diffuse;
}
纯色光照材质
接下来,我们为着色器定义Material类。在 materials 文件夹中,创建一个名为SolidColorLightingMaterial的新 Java 类,并定义如下:
public class SolidColorLightingMaterial extends Material {
private static final String TAG = "solidcolorlighting";
}
添加颜色、程序引用和缓冲区的变量,如下面的代码所示:
float[] color = new float[4];
static int program = -1;
static int positionParam;
static int colorParam;
static int normalParam;
static int modelParam;
static int MVParam;
static int MVPParam;
static int lightPosParam;
static int lightColParam;
FloatBuffer vertexBuffer;
FloatBuffer normalBuffer;
ShortBuffer indexBuffer;
int numIndices;
现在,我们可以添加一个构造函数,它接收一个颜色(RGBA)值并设置着色器程序,如下所示:
public SolidColorLightingMaterial(float[] c){
super();
setColor(c);
setupProgram();
}
public void setColor(float[] c){
color = c;
}
正如我们之前所见,setupProgram方法创建了着色器程序并获取了对其参数的引用:
public static void setupProgram(){
//Already setup?
if (program != -1) return;
//Create shader program
program = createProgram(R.raw.solid_color_lighting_vertex, R.raw.solid_color_lighting_fragment);
//Get vertex attribute parameters
positionParam = GLES20.glGetAttribLocation(program, "a_Position");
normalParam = GLES20.glGetAttribLocation(program, "a_Normal");
//Enable them (turns out this is kind of a big deal ;)
GLES20.glEnableVertexAttribArray(positionParam);
GLES20.glEnableVertexAttribArray(normalParam);
//Shader-specific parameters
colorParam = GLES20.glGetUniformLocation(program, "u_Color");
MVParam = GLES20.glGetUniformLocation(program, "u_MV");
MVPParam = GLES20.glGetUniformLocation(program, "u_MVP");
lightPosParam = GLES20.glGetUniformLocation(program, "u_LightPos");
lightColParam = GLES20.glGetUniformLocation(program, "u_LightCol");
RenderBox.checkGLError("Solid Color Lighting params");
}
同样,我们添加一个setBuffers方法,该方法由RenderObject组件(Sphere)调用:
public void setBuffers(FloatBuffer vertexBuffer, FloatBuffer normalBuffer, ShortBuffer indexBuffer, int numIndices){
this.vertexBuffer = vertexBuffer;
this.normalBuffer = normalBuffer;
this.indexBuffer = indexBuffer;
this.numIndices = numIndices;
}
最后,添加draw代码,该代码将从Camera组件中调用,以渲染在缓冲区中准备的几何图形(通过setBuffers)。draw方法如下所示:
@Override
public void draw(float[] view, float[] perspective) {
GLES20.glUseProgram(program);
GLES20.glUniform3fv(lightPosParam, 1, RenderBox.instance.mainLight.lightPosInEyeSpace, 0);
GLES20.glUniform4fv(lightColParam, 1, RenderBox.instance.mainLight.color, 0);
Matrix.multiplyMM(modelView, 0, view, 0, RenderObject.lightingModel, 0);
// Set the ModelView in the shader, // used to calculate lighting
GLES20.glUniformMatrix4fv(MVParam, 1, false, modelView, 0);
Matrix.multiplyMM(modelView, 0, view, 0, RenderObject.model, 0);
Matrix.multiplyMM(modelViewProjection, 0, perspective, 0, modelView, 0);
// Set the ModelViewProjection matrix for eye position.
GLES20.glUniformMatrix4fv(MVPParam, 1, false, modelViewProjection, 0);
GLES20.glUniform4fv(colorParam, 1, color, 0);
//Set vertex attributes
GLES20.glVertexAttribPointer(positionParam, 3, GLES20.GL_FLOAT, false, 0, vertexBuffer);
GLES20.glVertexAttribPointer(normalParam, 3, GLES20.GL_FLOAT, false, 0, normalBuffer);
GLES20.glDrawElements(GLES20.GL_TRIANGLES, numIndices, GLES20.GL_UNSIGNED_SHORT, indexBuffer);
}
现在我们有了一个纯色光照材质和着色器,我们可以将它们添加到Sphere类中,以在我们的项目中使用。
向球体添加材质
为了将这个Material与Sphere一起使用,我们将定义一个新的构造函数(Sphere),它调用一个辅助方法(createSolidColorLightingMaterial)来创建材质并设置缓冲区。代码如下:
public Sphere(float[] color) {
super();
allocateBuffers();
createSolidColorLightingMaterial(color);
}
public Sphere createSolidColorLightingMaterial(float[] color){
SolidColorLightingMaterial mat = new SolidColorLightingMaterial(color);
mat.setBuffers(vertexBuffer, normalBuffer, indexBuffer, numIndices);
material = mat;
return this;
}
好的,现在我们可以将球体添加到我们的场景中。
查看球体
让我们看看这是什么样子!我们将创建一个带有球体、灯光和相机的场景。请记住,幸运的是,RenderBox类为我们创建了默认的Camera和Light实例。我们只需要添加Sphere组件。
编辑你的MainActivity.java文件,在setup中添加球体。我们将它着色为黄色,并将其定位在x、y、z位置(2,-2,5):
private Transform sphere;
@Override
public void setup() {
sphere = new Transform();
float[] color = new float[]{1, 1, 0.5f, 1};
sphere.addComponent(new Sphere(color));
sphere.setLocalPosition(2.0f, -2.f, -5.0f);
}
这就是它应该看起来的样子,一对金色的立体对球:
查看球体
如果你看到了我看到的,你就应该得到一个奖励!
添加地球纹理材质
接下来,我们将通过在球体表面上渲染纹理来将我们的球体改造成地球的球体。
着色器可能会变得非常复杂,实现各种高光、反射、阴影等。一个更简单的算法,仍然利用颜色纹理和光照的是漫反射材质。这就是我们将在这里使用的。漫反射一词指的是光线在表面上的扩散,而不是反射或闪亮(镜面光照)。
纹理只是一个可以映射(投影)到几何表面上的图像文件(例如.jpg)。由于球体不容易被扁平化或剥离成二维地图(正如几个世纪的制图师所证明的那样),纹理图像将会看起来扭曲。以下是我们将用于地球的纹理。(本书的下载文件中提供了此文件的副本,类似的文件也可以在互联网上找到www.solarsystemscope.com/nexus/textures/):
-
在我们的应用程序中,我们计划将图像资产打包到
res/drawable文件夹中。如果需要,现在创建此文件夹。 -
将
earth_tex.png文件添加到其中。
earth_tex纹理如下图所示:
加载纹理文件
现在我们需要一个函数将纹理加载到我们的应用程序中。我们可以将其添加到MainActivity中。或者,您可以直接将其添加到RenderBox库的RenderObject类中。(现在将其添加到MainActivity中,我们将在本章末将其与其他扩展一起移动到库中。)添加以下代码:
public static int loadTexture(final int resourceId){
final int[] textureHandle = new int[1];
GLES20.glGenTextures(1, textureHandle, 0);
if (textureHandle[0] != 0)
{
final BitmapFactory.Options options = new BitmapFactory.Options();
options.inScaled = false; // No pre-scaling
// Read in the resource
final Bitmap bitmap = BitmapFactory.decodeResource(RenderBox.instance.mainActivity.getResources(), resourceId, options);
// Bind to the texture in OpenGL
GLES20.glBindTexture(GLES20.GL_TEXTURE_2D, textureHandle[0]);
// Set filtering
GLES20.glTexParameteri(GLES20.GL_TEXTURE_2D, GLES20.GL_TEXTURE_MIN_FILTER, GLES20.GL_NEAREST);
GLES20.glTexParameteri(GLES20.GL_TEXTURE_2D, GLES20.GL_TEXTURE_MAG_FILTER, GLES20.GL_NEAREST);
// Load the bitmap into the bound texture.
GLUtils.texImage2D(GLES20.GL_TEXTURE_2D, 0, bitmap, 0);
// Recycle the bitmap, since its data has been loaded // into OpenGL.
bitmap.recycle();
}
if (textureHandle[0] == 0)
{
throw new RuntimeException("Error loading texture.");
}
return textureHandle[0];
}
loadTexture方法返回一个整数句柄,该句柄可用于引用加载的纹理数据。
漫反射光照着色器
现在您可能已经熟悉了,我们将创建一个新的Material,它使用新的着色器。我们现在将编写着色器。在res/raw文件夹中创建两个文件,分别命名为diffuse_lighting_vertex.shader和diffuse_lighting_fragment.shader,并定义如下。
文件:res/raw/diffuse_lighting_vertex.shader
uniform mat4 u_MVP;
uniform mat4 u_MV;
attribute vec4 a_Position;
attribute vec3 a_Normal;
attribute vec2 a_TexCoordinate;
varying vec3 v_Position;
varying vec3 v_Normal;
varying vec2 v_TexCoordinate;
void main() {
// vertex in eye space
v_Position = vec3(u_MV * a_Position);
// pass through the texture coordinate.
v_TexCoordinate = a_TexCoordinate;
// normal's orientation in eye space
v_Normal = vec3(u_MV * vec4(a_Normal, 0.0));
// final point in normalized screen coordinates
gl_Position = u_MVP * a_Position;
}
文件:res/raw/diffuse_lighting_fragment.shader
precision highp float; // default high precision for floating point ranges of the planets
uniform vec3 u_LightPos; // light position in eye space
uniform vec4 u_LightCol;
uniform sampler2D u_Texture; // the input texture
varying vec3 v_Position;
varying vec3 v_Normal;
varying vec2 v_TexCoordinate;
void main() {
// distance for attenuation.
float distance = length(u_LightPos - v_Position);
// lighting direction vector from the light to the vertex
vec3 lightVector = normalize(u_LightPos - v_Position);
// dot product of the light vector and vertex normal. // If the normal and light vector are
// pointing in the same direction then it will get max // illumination.
float diffuse = max(dot(v_Normal, lightVector), 0.01);
// Add a tiny bit of ambient lighting (this is outerspace)
diffuse = diffuse + 0.025;
// Multiply the color by the diffuse illumination level and // texture value to get final output color
gl_FragColor = texture2D(u_Texture, v_TexCoordinate) * u_LightCol * diffuse;
}
这些着色器为光源添加属性,并利用顶点上的几何法向量来计算着色。您可能已经注意到,这与纯色着色器之间的区别在于使用了texture2D,这是一个采样器函数。另外,请注意我们将u_Texture声明为sampler2D。这种变量类型和函数利用了内置到 GPU 硬件中的纹理单元,并可以与 UV 坐标一起用于从纹理图像返回颜色值。根据图形硬件的不同,纹理单元的数量是固定的。您可以使用 OpenGL 查询纹理单元的数量。对于移动 GPU 来说,一个很好的经验法则是期望有八个纹理单元。这意味着任何着色器可以同时使用多达八个纹理。
漫反射光照材质
现在我们可以编写一个使用纹理和着色器的Material。在materials/文件夹中,创建一个名为DiffuseLightingMaterial的新 Java 类,如下所示:
public class DiffuseLightingMaterial extends Material {
private static final String TAG = "diffuselightingmaterial";
添加纹理 ID、程序引用和缓冲区的变量,如下所示:
int textureId;
static int program = -1; //Initialize to a totally invalid value for setup state
static int positionParam;
static int texCoordParam;
static int textureParam;
static int normalParam;
static int MVParam;
static int MVPParam;
static int lightPosParam;
static int lightColParam;
FloatBuffer vertexBuffer;
FloatBuffer texCoordBuffer;
FloatBuffer normalBuffer;
ShortBuffer indexBuffer;
int numIndices;
现在我们可以添加一个构造函数,该构造函数设置着色器程序并为给定的资源 ID 加载纹理,如下所示:
public DiffuseLightingMaterial(int resourceId){
super();
setupProgram();
this.textureId = MainActivity.loadTexture(resourceId);
}
正如我们之前所见,setupProgram方法创建着色器程序并获取其参数的引用:
public static void setupProgram(){
//Already setup?
if (program != -1) return;
//Create shader program
program = createProgram(R.raw.diffuse_lighting_vertex, R.raw.diffuse_lighting_fragment);
RenderBox.checkGLError("Diffuse Texture Color Lighting shader compile");
//Get vertex attribute parameters
positionParam = GLES20.glGetAttribLocation(program, "a_Position");
normalParam = GLES20.glGetAttribLocation(program, "a_Normal");
texCoordParam = GLES20.glGetAttribLocation(program, "a_TexCoordinate");
//Enable them (turns out this is kind of a big deal ;)
GLES20.glEnableVertexAttribArray(positionParam);
GLES20.glEnableVertexAttribArray(normalParam);
GLES20.glEnableVertexAttribArray(texCoordParam);
//Shader-specific parameters
textureParam = GLES20.glGetUniformLocation(program, "u_Texture");
MVParam = GLES20.glGetUniformLocation(program, "u_MV");
MVPParam = GLES20.glGetUniformLocation(program, "u_MVP");
lightPosParam = GLES20.glGetUniformLocation(program, "u_LightPos");
lightColParam = GLES20.glGetUniformLocation(program, "u_LightCol");
RenderBox.checkGLError("Diffuse Texture Color Lighting params");
}
同样,我们添加一个setBuffers方法,该方法由RenderObject组件(Sphere)调用:
public void setBuffers(FloatBuffer vertexBuffer, FloatBuffer normalBuffer, FloatBuffer texCoordBuffer, ShortBuffer indexBuffer, int numIndices){
//Associate VBO data with this instance of the material
this.vertexBuffer = vertexBuffer;
this.normalBuffer = normalBuffer;
this.texCoordBuffer = texCoordBuffer;
this.indexBuffer = indexBuffer;
this.numIndices = numIndices;
}
最后,添加draw代码,该代码将从Camera组件调用,以渲染通过setBuffers准备的几何图形。draw方法如下所示:
@Override
public void draw(float[] view, float[] perspective) {
GLES20.glUseProgram(program);
// Set the active texture unit to texture unit 0.
GLES20.glActiveTexture(GLES20.GL_TEXTURE0);
// Bind the texture to this unit.
GLES20.glBindTexture(GLES20.GL_TEXTURE_2D, textureId);
// Tell the texture uniform sampler to use this texture in // the shader by binding to texture unit 0.
GLES20.glUniform1i(textureParam, 0);
//Technically, we don't need to do this with every draw //call, but the light could move.
//We could also add a step for shader-global parameters //which don't vary per-object
GLES20.glUniform3fv(lightPosParam, 1, RenderBox.instance.mainLight.lightPosInEyeSpace, 0);
GLES20.glUniform4fv(lightColParam, 1, RenderBox.instance.mainLight.color, 0);
Matrix.multiplyMM(modelView, 0, view, 0, RenderObject.lightingModel, 0);
// Set the ModelView in the shader, used to calculate // lighting
GLES20.glUniformMatrix4fv(MVParam, 1, false, modelView, 0);
Matrix.multiplyMM(modelView, 0, view, 0, RenderObject.model, 0);
Matrix.multiplyMM(modelViewProjection, 0, perspective, 0, modelView, 0);
// Set the ModelViewProjection matrix for eye position.
GLES20.glUniformMatrix4fv(MVPParam, 1, false, modelViewProjection, 0);
//Set vertex attributes
GLES20.glVertexAttribPointer(positionParam, 3, GLES20.GL_FLOAT, false, 0, vertexBuffer);
GLES20.glVertexAttribPointer(normalParam, 3, GLES20.GL_FLOAT, false, 0, normalBuffer);
GLES20.glVertexAttribPointer(texCoordParam, 2, GLES20.GL_FLOAT, false, 0, texCoordBuffer);
GLES20.glDrawElements(GLES20.GL_TRIANGLES, numIndices, GLES20.GL_UNSIGNED_SHORT, indexBuffer);
RenderBox.checkGLError("Diffuse Texture Color Lighting draw");
}
}
与我们之前定义的SolidColorLightingMaterial类进行比较,您会注意到它非常相似。我们用纹理 ID 替换了单一颜色,并添加了由Sphere组件给出的纹理坐标缓冲区(texCoordBuffer)的要求。另外,请注意我们将活动纹理单元设置为GL_TEXTURE0并绑定纹理。
向 Sphere 组件添加漫反射光照纹理
要将新的材质添加到Sphere组件中,我们将创建一个接收纹理句柄的替代构造函数。然后,它创建DiffuseLightingMaterial类的一个实例,并从球体设置缓冲区。
通过定义一个接受纹理 ID 并调用一个名为createDiffuseMaterial的新辅助方法的新构造函数(Sphere),将材料添加到Sphere组件中,如下所示:
public Sphere(int textureId){
super();
allocateBuffers();
createDiffuseMaterial(textureId);
}
public Sphere createDiffuseMaterial(int textureId){
DiffuseLightingMaterial mat = new DiffuseLightingMaterial(textureId);
mat.setBuffers(vertexBuffer, normalBuffer, texCoordBuffer, indexBuffer, numIndices);
material = mat;
return this;
}
现在,我们可以使用纹理材料。
查看地球
要将地球纹理添加到我们的球体中,修改MainActivity的setup方法,以指定纹理资源 ID 而不是颜色,如下所示:
@Override
public void setup() {
sphere = new Transform();
sphere.addComponent(new Sphere(R.drawable.earth_tex));
sphere.setLocalPosition(2.0f, -2.f, -2.0f);
}
你看,家,甜蜜的家!
查看地球
看起来真的很酷。哎呀,它是颠倒的!虽然在外太空中没有特定的上下,但我们的地球看起来颠倒了。让我们在setup方法中翻转它,以便它以正确的方向开始,而且在此过程中,让我们利用Transform方法返回它们自己的事实,这样我们就可以链接调用,如下所示:
public void setup() {
sphere = new Transform()
.setLocalPosition(2.0f, -2.f, -2.0f)
.rotate(0, 0, 180f)
.addComponent(new Sphere(R.drawable.earth_tex));
}
当然,地球应该旋转。让我们对其进行动画处理,使其旋转,就像我们期望地球会做的那样。将此添加到preDraw方法中,该方法在每个新帧之前调用。它使用Time类的getDeltaTime方法,该方法返回自上一帧以来的当前秒数变化的分数。如果我们希望它每秒旋转-10 度,我们使用*-10 * deltaTime*:
public void preDraw() {
float dt = Time.getDeltaTime();
sphere.rotate( 0, -10f * dt, 0);
}
我觉得这样很好!你觉得呢?
改变相机位置
还有一件事。我们似乎是在与光源一致地观看地球。让我们移动相机视图,这样我们就可以从侧面看到地球。这样,我们可以更好地看到受光照的阴影。
假设我们将光源位置保留在原点(0,0,0),就好像它是太阳在太阳系的中心。地球距离太阳 1.471 亿公里。让我们将球体放在原点右侧那么多单位,并将相机放在相同的相对位置。现在,setup方法看起来像以下代码:
public void setup() {
sphere = new Transform()
.setLocalPosition(147.1f, 0, 0)
.rotate(0, 0, 180f)
.addComponent(new Sphere(R.drawable.earth_tex));
RenderBox.mainCamera.getTransform().setLocalPosition(147.1f, 2f, 2f);
}
运行它,你会看到这个:
看起来几乎真实,是吗?NASA 会感到自豪!
白天和夜晚材料
不过,地球的背面看起来异常黑暗。我的意思是,现在不是 18 世纪。现在很多东西都是 24 x 7,尤其是我们的城市。让我们用一个单独的地球夜晚纹理来表示这一点,其中有城市灯光。
我们有一个文件供您使用,名为earth_night_tex.jpg。将文件的副本拖入您的res/drawable/文件夹中。
在这本书的页面上可能有点难以辨认,但这就是纹理图像的样子:
白天/夜晚着色器
为了支持这一点,我们将创建一个新的DayNightMaterial类,该类接受地球纹理的两个版本。该材料还将包含相应的片段着色器,该着色器考虑了表面相对于光源方向的法线向量(使用点积,如果您熟悉矢量数学)来决定是使用白天纹理图像还是夜晚纹理图像进行渲染。
在你的res/raw/文件夹中,创建day_night_vertex.shader和day_night_fragment.shader文件,然后定义它们,如下所示。
文件:day_night_vertex.shader
uniform mat4 u_MVP;
uniform mat4 u_MV;
attribute vec4 a_Position;
attribute vec3 a_Normal;
attribute vec2 a_TexCoordinate;
varying vec3 v_Position;
varying vec3 v_Normal;
varying vec2 v_TexCoordinate;
void main() {
// vertex to eye space
v_Position = vec3(u_MV * a_Position);
// pass through the texture coordinate
v_TexCoordinate = a_TexCoordinate;
// normal's orientation in eye space
v_Normal = vec3(u_MV * vec4(a_Normal, 0.0));
// final point in normalized screen coordinates
gl_Position = u_MVP * a_Position;
}
除了添加v_Texcoordinate之外,这与我们的SolidColorLighting着色器完全相同。
文件:day_night_fragment.shader
precision highp float; // default high precision for floating point ranges of the // planets
uniform vec3 u_LightPos; // light position in eye space
uniform vec4 u_LightCol;
uniform sampler2D u_Texture; // the day texture.
uniform sampler2D u_NightTexture; // the night texture.
varying vec3 v_Position;
varying vec3 v_Normal;
varying vec2 v_TexCoordinate;
void main() {
// lighting direction vector from the light to the vertex
vec3 lightVector = normalize(u_LightPos - v_Position);
// dot product of the light vector and vertex normal. If the // normal and light vector are
// pointing in the same direction then it will get max // illumination.
float ambient = 0.3;
float dotProd = dot(v_Normal, lightVector);
float blend = min(1.0, dotProd * 2.0);
if(dotProd < 0.0){
//flat ambient level of 0.3
gl_FragColor = texture2D(u_NightTexture, v_TexCoordinate) * ambient;
} else {
gl_FragColor = (
texture2D(u_Texture, v_TexCoordinate) * blend
+ texture2D(u_NightTexture, v_TexCoordinate) * (1.0 - blend)
) * u_LightCol * min(max(dotProd * 2.0, ambient), 1.0);
}
}
与往常一样,对于照明,我们计算顶点法线向量和光线方向向量的点积(dotProd)。当该值为负时,顶点面向远离光源(太阳),因此我们将使用夜晚纹理进行渲染。否则,我们将使用常规白天地球纹理进行渲染。
光照计算还包括混合值。这基本上是一种在计算gl_FragColor变量时将过渡区域压缩到终结器周围的方法。我们将点积乘以 2.0,使其遵循更陡的斜率,但仍将混合值夹在 0 和 1 之间。这有点复杂,但一旦你考虑数学,它应该有些意义。
我们使用两种纹理来绘制相同的表面。虽然这可能看起来是独特的白天/黑夜情况,但实际上这是一种非常常见的方法,称为多重纹理。你可能不相信,但在引入一次使用多个纹理的能力之前,3D 图形实际上已经取得了相当大的进展。如今,你几乎可以在任何地方看到多重纹理,实现诸如法线贴图、贴花纹理和位移/视差着色器等技术,这些技术可以在简单的网格上创建更多的细节。
DayNightMaterial 类
现在我们可以编写DayNightMaterial类。它基本上类似于我们之前创建的DiffuseLightingMaterial类,但支持两种纹理。因此,构造函数接受两个纹理 ID。setBuffers方法与之前的方法相同,draw方法几乎相同,但增加了夜间纹理的绑定。
以下是完整的代码,突出显示与DiffuseLightingMaterial不同的行:
public class DayNightMaterial extends Material {
private static final String TAG = "daynightmaterial";
与我们其他材料一样,声明我们需要的变量,包括白天和夜晚的纹理 ID:
int textureId;
int nightTextureId;
static int program = -1; //Initialize to a totally invalid value for setup state
static int positionParam;
static int texCoordParam;
static int textureParam;
static int nightTextureParam;
static int normalParam;
static int MVParam;
static int MVPParam;
static int lightPosParam;
static int lightColParam;
FloatBuffer vertexBuffer;
FloatBuffer texCoordBuffer;
FloatBuffer normalBuffer;
ShortBuffer indexBuffer;
int numIndices;
定义接受资源 ID 和setupProgram辅助方法的构造函数:
public DayNightMaterial(int resourceId, int nightResourceId){
super();
setupProgram();
this.textureId = MainActivity.loadTexture(resourceId);
this.nightTextureId = MainActivity.loadTexture(nightResourceId);
}
public static void setupProgram(){
if(program != -1) return;
//Create shader program
program = createProgram(R.raw.day_night_vertex, R.raw.day_night_fragment);
//Get vertex attribute parameters
positionParam = GLES20.glGetAttribLocation(program, "a_Position");
normalParam = GLES20.glGetAttribLocation(program, "a_Normal");
texCoordParam = GLES20.glGetAttribLocation(program, "a_TexCoordinate");
//Enable them (turns out this is kind of a big deal ;)
GLES20.glEnableVertexAttribArray(positionParam);
GLES20.glEnableVertexAttribArray(normalParam);
GLES20.glEnableVertexAttribArray(texCoordParam);
//Shader-specific parameters
textureParam = GLES20.glGetUniformLocation(program, "u_Texture");
nightTextureParam = GLES20.glGetUniformLocation(program, "u_NightTexture");
MVParam = GLES20.glGetUniformLocation(program, "u_MV");
MVPParam = GLES20.glGetUniformLocation(program, "u_MVP");
lightPosParam = GLES20.glGetUniformLocation(program, "u_LightPos");
lightColParam = GLES20.glGetUniformLocation(program, "u_LightCol");
RenderBox.checkGLError("Day/Night params");
}
public void setBuffers(FloatBuffer vertexBuffer, FloatBuffer normalBuffer, FloatBuffer texCoordBuffer, ShortBuffer indexBuffer, int numIndices){
//Associate VBO data with this instance of the material
this.vertexBuffer = vertexBuffer;
this.normalBuffer = normalBuffer;
this.texCoordBuffer = texCoordBuffer;
this.indexBuffer = indexBuffer;
this.numIndices = numIndices;
}
最后,draw方法将所有内容输出到屏幕上:
@Override
public void draw(float[] view, float[] perspective) {
GLES20.glUseProgram(program);
// Set the active texture unit to texture unit 0.
GLES20.glActiveTexture(GLES20.GL_TEXTURE0);
// Bind the texture to this unit.
GLES20.glBindTexture(GLES20.GL_TEXTURE_2D, textureId);
GLES20.glActiveTexture(GLES20.GL_TEXTURE1);
GLES20.glBindTexture(GLES20.GL_TEXTURE_2D, nightTextureId);
// Tell the texture uniform sampler to use this texture in // the shader by binding to texture unit 0.
GLES20.glUniform1i(textureParam, 0);
GLES20.glUniform1i(nightTextureParam, 1);
//Technically, we don't need to do this with every draw //call, but the light could move.
//We could also add a step for shader-global parameters //which don't vary per-object
GLES20.glUniform3fv(lightPosParam, 1, RenderBox.instance.mainLight.lightPosInEyeSpace, 0);
GLES20.glUniform4fv(lightColParam, 1, RenderBox.instance.mainLight.color, 0);
Matrix.multiplyMM(modelView, 0, view, 0, RenderObject.lightingModel, 0);
// Set the ModelView in the shader, used to calculate // lighting
GLES20.glUniformMatrix4fv(MVParam, 1, false, modelView, 0);
Matrix.multiplyMM(modelView, 0, view, 0, RenderObject.model, 0);
Matrix.multiplyMM(modelViewProjection, 0, perspective, 0, modelView, 0);
// Set the ModelViewProjection matrix for eye position.
GLES20.glUniformMatrix4fv(MVPParam, 1, false, modelViewProjection, 0);
//Set vertex attributes
GLES20.glVertexAttribPointer(positionParam, 3, GLES20.GL_FLOAT, false, 0, vertexBuffer);
GLES20.glVertexAttribPointer(normalParam, 3, GLES20.GL_FLOAT, false, 0, normalBuffer);
GLES20.glVertexAttribPointer(texCoordParam, 2, GLES20.GL_FLOAT, false, 0, texCoordBuffer);
GLES20.glDrawElements(GLES20.GL_TRIANGLES, numIndices, GLES20.GL_UNSIGNED_SHORT, indexBuffer);
RenderBox.checkGLError("DayNight Texture Color Lighting draw");
}
}
渲染白天/黑夜
现在我们准备将新材料整合到我们的Sphere组件中,看看效果如何。
在Sphere.java中,添加一个新的构造函数和createDayNightMaterial辅助方法,如下:
public Sphere(int textureId, int nightTextureId){
super();
allocateBuffers();
createDayNightMaterial(textureId, nightTextureId);
}
public Sphere createDayNightMaterial(int textureId, int nightTextureId){
DayNightMaterial mat = new DayNightMaterial(textureId, nightTextureId);
mat.setBuffers(vertexBuffer, normalBuffer, texCoordBuffer, indexBuffer, numIndices);
material = mat;
return this;
}
让我们从MainActivity的setup方法中调用它,并用新的Sphere实例替换调用,传递两个纹理的资源 ID:
.addComponent(new Sphere(R.drawable.earth_tex, R.drawable.earth_night_tex));
现在运行。看起来真酷!高雅!不幸的是,在这里粘贴屏幕截图并没有太多意义,因为城市夜间灯光不会显示得很好。你只能在自己的 Cardboard 观看器中看到它。相信我,这是值得的!
接下来,太阳来了,我说,没问题...
创建太阳
太阳将被渲染为一个带纹理的球体。然而,它不像我们的地球那样有正面和背面的阴影。我们需要以未照亮或者说未着色的方式渲染它。这意味着我们需要创建UnlitTextureMaterial。
我们也有太阳的纹理文件(以及所有行星)。尽管它们包含在本书的可下载文件中,但我们不会在本章中展示它们。
将sun_tex.png文件拖到res/drawable/文件夹中。
未照亮的纹理着色器
正如我们在本书中早些时候看到的那样,未照亮的着色器比带照明的着色器简单得多。在res/raw/文件夹中,创建unlit_tex_vertex.shader和unlit_tex_fragment.shader文件,并定义它们如下。
文件:unlit_tex_vertex.shader
uniform mat4 u_MVP;
attribute vec4 a_Position;
attribute vec2 a_TexCoordinate;
varying vec3 v_Position;
varying vec2 v_TexCoordinate;
void main() {
// pass through the texture coordinate
v_TexCoordinate = a_TexCoordinate;
// final point in normalized screen coordinates
gl_Position = u_MVP * a_Position;
}
文件:unlit_tex_fragment.shader
precision mediump float; // default medium precision
uniform sampler2D u_Texture; // the input texture
varying vec3 v_Position;
varying vec2 v_TexCoordinate;
void main() {
// Send the color from the texture straight out
gl_FragColor = texture2D(u_Texture, v_TexCoordinate);
}
是的,这比我们之前的着色器简单。
未照亮的纹理材料
现在,我们可以编写UnlitTexMaterial类。以下是初始代码:
public class UnlitTexMaterial extends Material {
private static final String TAG = "unlittex";
int textureId;
static int program = -1; //Initialize to a totally invalid value for setup state
static int positionParam;
static int texCoordParam;
static int textureParam;
static int MVPParam;
FloatBuffer vertexBuffer;
FloatBuffer texCoordBuffer;
ShortBuffer indexBuffer;
int numIndices;
以下是构造函数,setupProgram和setBuffers方法:
public UnlitTexMaterial(int resourceId){
super();
setupProgram();
this.textureId = MainActivity.loadTexture(resourceId);
}
public static void setupProgram(){
if(program != -1) return;
//Create shader program
program = createProgram(R.raw.unlit_tex_vertex, R.raw.unlit_tex_fragment);
//Get vertex attribute parameters
positionParam = GLES20.glGetAttribLocation(program, "a_Position");
texCoordParam = GLES20.glGetAttribLocation(program, "a_TexCoordinate");
//Enable them (turns out this is kind of a big deal ;)
GLES20.glEnableVertexAttribArray(positionParam);
GLES20.glEnableVertexAttribArray(texCoordParam);
//Shader-specific parameters
textureParam = GLES20.glGetUniformLocation(program, "u_Texture");
MVPParam = GLES20.glGetUniformLocation(program, "u_MVP");
RenderBox.checkGLError("Unlit Texture params");
}
public void setBuffers(FloatBuffer vertexBuffer, FloatBuffer texCoordBuffer, ShortBuffer indexBuffer, int numIndices){
//Associate VBO data with this instance of the material
this.vertexBuffer = vertexBuffer;
this.texCoordBuffer = texCoordBuffer;
this.indexBuffer = indexBuffer;
this.numIndices = numIndices;
}
在后续项目中,为纹理 ID 添加获取器和设置器方法会很方便(这里不使用):
public void setTexture(int textureHandle){
textureId = textureHandle;
}
public int getTexture(){
return textureId;
}
最后,这是draw方法:
@Override
public void draw(float[] view, float[] perspective) {
GLES20.glUseProgram(program);
// Set the active texture unit to texture unit 0.
GLES20.glActiveTexture(GLES20.GL_TEXTURE0);
// Bind the texture to this unit.
GLES20.glBindTexture(GLES20.GL_TEXTURE_2D, textureId);
// Tell the texture uniform sampler to use this texture in // the shader by binding to texture unit 0.
GLES20.glUniform1i(textureParam, 0);
Matrix.multiplyMM(modelView, 0, view, 0, RenderObject.model, 0);
Matrix.multiplyMM(modelViewProjection, 0, perspective, 0, modelView, 0);
// Set the ModelViewProjection matrix in the shader.
GLES20.glUniformMatrix4fv(MVPParam, 1, false, modelViewProjection, 0);
// Set the vertex attributes
GLES20.glVertexAttribPointer(positionParam, 3, GLES20.GL_FLOAT, false, 0, vertexBuffer);
GLES20.glVertexAttribPointer(texCoordParam, 2, GLES20.GL_FLOAT, false, 0, texCoordBuffer);
GLES20.glDrawElements(GLES20.GL_TRIANGLES, numIndices, GLES20.GL_UNSIGNED_SHORT, indexBuffer);
RenderBox.checkGLError("Unlit Texture draw");
}
}
使用未照亮的纹理进行渲染
我们准备将新材料整合到我们的Sphere类中,看看效果如何。
在Sphere.java中,添加一个新的构造函数,该构造函数接受一个boolean参数,指示纹理是否应该被照亮,并添加createUnlitTexMaterial辅助方法:
public Sphere(int textureId, boolean lighting){
super();
allocateBuffers();
if (lighting) {
createDiffuseMaterial(textureId);
} else {
createUnlitTexMaterial(textureId);
}
}
public Sphere createUnlitTexMaterial(int textureId){
UnlitTexMaterial mat = new UnlitTexMaterial(textureId);
mat.setBuffers(vertexBuffer, texCoordBuffer, indexBuffer, numIndices);
material = mat;
return this;
}
请注意,我们定义构造函数的方式,您可以调用new Sphere(texId)或new Sphere(texId, true)来获得有光的渲染。但对于未照明的渲染,您必须使用第二个Sphere(texId, false)。还要注意,构造函数中设置整个组件并不是唯一的方法。我们之所以这样做,是因为这样可以使我们的MainActivity代码简洁。实际上,随着我们开始扩展对RenderBox及其着色器库的使用,将有必要将大部分代码放入我们的MainActivity类中。为每种材料创建构造函数是不可能的。最终,需要一个材料系统,以允许您创建和设置材料,而无需为每个材料创建一个新类。
添加太阳
现在,我们只需要将太阳球添加到MainActivity的setup方法中。让它变大,比如说,按照 6.963 的比例(记住这是以百万公里为单位)。现在这个值可能看起来是任意的,但当我们对太阳系的几何进行计算并缩放行星时,您将看到它的来源。
将以下代码添加到MainActivity的setup方法中:
public void setup() {
Transform origin = new Transform();
//Sun
Transform sun = new Transform()
.setParent(origin, false)
.setLocalScale(6.963f, 6.963f, 6.963f)
.addComponent(new Sphere(R.drawable.sun_tex, false));
//"Sun" light
RenderBox.instance.mainLight.transform.setPosition( origin.getPosition());
RenderBox.instance.mainLight.color = new float[]{1, 1, 0.8f, 1};
//Earth…
我们首先定义一个原点变换,它将是太阳系的中心。然后,我们创建太阳,将其作为原点的父级,并给定比例。然后,添加一个具有太阳纹理的新球组件。我们还给了我们的光一个略带黄色的颜色,这将与地球的纹理颜色混合。
这是渲染后的太阳的样子,它似乎照亮了地球:
现在,让我们继续进行太阳系的其余部分。
创建一个 Planet 类
在构建我们的太阳系时,将有助于将Planet类抽象出来用于每个行星。
行星有许多不同的属性,除了它们的纹理资源 ID 外,还定义了它们独特的特征。行星与太阳的距离、大小(半径)和轨道速度。行星都围绕太阳作为它们的原点进行轨道运行。
-
距离将是其距离太阳的距离,以百万公里为单位进行测量。
-
半径将是行星的大小,以公里为单位(实际上是以百万公里为单位,以保持一致)。
-
旋转是行星绕其自身轴旋转的速率(其一天之一)。
-
轨道是行星绕太阳运行的速率(其一年之一)。我们将假设轨道是完全圆形的。
-
TexId是行星纹理图像的资源 ID。 -
origin是其轨道的中心。对于行星,这将是太阳的变换。对于卫星,这将是卫星的行星。
太阳系是一个非常庞大的东西。距离和半径以百万公里为单位进行测量。行星之间的距离非常遥远,相对于它们的轨道大小来说,它们的大小相对较小。旋转和轨道值是相对速率。您会注意到,我们将它们标准化为每地球日 10 秒。
根据这些属性,行星保持两个变换:一个变换用于行星本身,另一个变换描述其在轨道上的位置。通过这种方式,我们可以旋转每个行星的单独父级变换,当行星处于局部位置时,其大小等于轨道半径,会导致行星以圆形运动。然后我们可以使用其变换旋转行星本身。
对于月球,我们还将使用Planet类(是的,我知道,也许我们应该将其命名为HeavenlyBody?),但将其原点设置为地球。月球不会旋转。
在您的应用程序中(例如app/java/com/cardbookvr/solarsystem/),创建一个 Java 类并命名为Planet。添加其属性(distance,radius,rotation,orbit,orbitTransform和transform)的变量,如下所示:
public class Planet {
protected float rotation, orbit;
protected Transform orbitTransform, transform;
public float distance, radius;
定义一个构造函数,该构造函数接受行星的属性值,初始化变量并计算初始变换:
public Planet(float distance, float radius, float rotation, float orbit, int texId, Transform origin){
setupPlanet(distance, radius, rotation, orbit, origin);
transform.addComponent(new Sphere(texId));
}
public void setupPlanet(float distance, float radius, float rotation, float orbit, Transform origin){
this.distance = distance;
this.radius = radius;
this.rotation = rotation;
this.orbit = orbit;
this.orbitTransform = new Transform();
this.orbitTransform.setParent(origin, false);
transform = new Transform()
.setParent(orbitTransform, false)
.setLocalPosition(distance, 0, 0)
.setLocalRotation(180, 0, 0)
.setLocalScale(radius, radius, radius);
}
构造函数为行星生成初始变换,并添加一个带有给定纹理的Sphere组件。
在每一帧新的画面中,我们将更新orbitTransform绕太阳的旋转(年)和行星绕自身轴的旋转(日):
public void preDraw(float dt){
orbitTransform.rotate(0, dt * orbit, 0);
transform.rotate(0, dt * -rotation, 0);
}
我们还可以为Planet类的变换提供一些访问器方法:
public Transform getTransform() { return transform; }
public Transform getOrbitransform() { return orbitTransform; }
现在,让我们来看看我们太阳系的几何形状。
太阳系的形成
这是我们将真正的科学投入到我们的项目中的机会。以下表格显示了每个行星的实际距离、大小、旋转和轨道值。(大部分数据来自www.enchantedlearning.com/subjects/astronomy/planets/。)
| 行星 | 距离太阳(百万公里) | 半径大小(公里) | 白天长度(地球小时) | 年长度(地球年) |
|---|---|---|---|---|
| 水星 | 57.9 | 2440 | 1408.8 | 0.24 |
| 金星 | 108.2 | 6052 | 5832 | 0.615 |
| 地球 | 147.1 | 6371 | 24 | 1.0 |
| 地球的月亮 | 0.363(来自地球) | 1737 | 0 | |
| 火星 | 227.9 | 3390 | 24.6 | 2.379 |
| 木星 | 778.3 | 69911 | 9.84 | 11.862 |
| 土星 | 1427.0 | 58232 | 10.2 | 29.456 |
| 天王星 | 2871.0 | 25362 | 17.9 | 84.07 |
| 海王星 | 4497 | 24622 | 19.1 | 164.81 |
| 冥王星(仍然计数) | 5913 | 1186 | 6.39 | 247.7 |
我们还为每个行星准备了纹理图像。这些文件包含在本书的下载中。它们应该被添加到res/drawable文件夹中,命名为mercury_tex.png,venus_tex.png等等。以下表格标识了我们使用的来源以及您可以找到它们的位置:
在 MainActivity 中设置行星
我们将在MainActivity中设置所有行星,使用一个setupPlanets方法,该方法将从setup中调用。让我们开始吧。
在类的顶部,声明一个 planets 数组:
Planet[] planets;
然后,我们声明了一些常量,我们将在下面解释:
// tighten up the distances (millions km)
float DISTANCE_FACTOR = 0.5f; // this is 100x relative to interplanetary distances
float SCALE_FACTOR = 0.0001f; // animation rate for one earth rotation (seconds per rotation)
float EDAY_RATE = 10f; // rotation scale factor e.g. to animate earth: dt * 24 * // DEG_PER_EHOUR
float DEG_PER_EHOUR = (360f / 24f / EDAY_RATE); // animation rate for one earth rotation (seconds per orbit)// (real is EDAY_RATE * 365.26)
float EYEAR_RATE = 1500f; // orbit scale factorfloat DEG_PER_EYEAR = (360f / EYEAR_RATE);
setupPlanets 方法使用我们的天体数据并相应地构建新的行星。首先,让我们定义物理数据,如下所示:
public void setupPlanets(Transform origin) {
float[] distances = new float[] { 57.9f, 108.2f, 149.6f, 227.9f, 778.3f, 1427f, 2871f, 4497f, 5913f };
float[] fudged_distances = new float[] { 57.9f, 108.2f, 149.6f, 227.9f, 400f, 500f, 600f, 700f, 800f };
float[] radii = new float[] { 2440f, 6052f, 6371f, 3390f, 69911f, 58232f, 25362f, 24622f, 1186f };
float[] rotations = new float[] { 1408.8f * 0.05f, 5832f * 0.01f, 24f, 24.6f, 9.84f, 10.2f, 17.9f, 19.1f, 6.39f };
float[] orbits = new float[] { 0.24f, 0.615f, 1.0f, 2.379f, 11.862f, 29.456f, 84.07f, 164.81f, 247.7f };
distances 数组包含每个行星距离太阳的距离,单位为百万公里。这实际上非常巨大,尤其是对于那些非常遥远且相对于其他行星不太可见的外行星。为了使事情更有趣,我们将调整这些行星(从木星到冥王星)的距离,因此我们将使用的值在 fudged_distances 数组中。
radii 数组包含每个行星的实际大小(以公里为单位)。
rotations 数组包含地球小时的长度。由于水星和金星的自转速度相对于地球非常快,我们将通过任意比例因子人为地减慢它们的速度。
orbits 数组包含每个行星的年份长度和绕太阳一周所需的时间。
现在,让我们为每个行星的材质设置纹理 ID:
int[] texIds = new int[]{
R.drawable.mercury_tex,
R.drawable.venus_tex,
R.drawable.earth_tex,
R.drawable.mars_tex,
R.drawable.jupiter_tex,
R.drawable.saturn_tex,
R.drawable.uranus_tex,
R.drawable.neptune_tex,
R.drawable.pluto_tex
};
现在初始化 planets 数组,为每个创建一个新的 Planet 对象:
planets = new Planet[distances.length + 1];
for(int i = 0; i < distances.length; i++){
planets[i] = new Planet(
fudged_distances[i] * DISTANCE_FACTOR,
radii[i] * SCALE_FACTOR,
rotations[i] * DEG_PER_EHOUR,
orbits[i] * DEG_PER_EYEAR * fudged_distances[i]/distances[i],
texIds[i],
origin);
}
虽然我们对一些行星的实际距离进行了调整,使它们更接近内太阳系,但我们还将所有距离乘以 DISTANCE_FACTOR 标量,主要是为了不使我们的浮点精度计算失真。我们通过不同的 SCALE_FACTOR 变量来缩放所有行星的大小,使它们相对于实际尺寸更大(0.0001 实际上是 100 的因子,因为半径是以公里计算的,而距离是以百万公里计算的)。
旋转动画速率是行星的实际日长度,乘以我们希望在 VR 中动画化一天的速度。我们默认为每个地球日 10 秒。
最后,行星轨道动画有自己的比例因子。我们加快了大约 2 倍。您还可以调整距离调整因子的轨道速率(例如,冥王星绕太阳运行一次需要 247 个地球年,但我们已经将其移动得更接近,因此它需要减速)。
然后,我们添加了地球的月球。我们在这里也使用了一些艺术许可,调整了距离和半径,并加快了其轨道速率,使其在 VR 中观看更有吸引力。
// Create the moon
planets[distances.length] = new Planet(7.5f, 0.5f, 0, - 0.516f, R.drawable.moon_tex, planets[2].getTransform());}
让我们再看看另一个方法:goToPlanet。将摄像机方便地定位在特定行星附近。由于行星位于数据驱动的位置并且将在轨道上移动,最好将摄像机设置为行星变换的子级。这是我们将轨道变换与行星变换分开的原因之一。我们不希望摄像机随着行星旋转而旋转——您可能会晕!这是实现方式:
void goToPlanet(int index){
RenderBox.mainCamera.getTransform().setParent( planets[index].getOrbitransform(), false);
RenderBox.mainCamera.getTransform().setLocalPosition( planets[index].distance, planets[index].radius * 1.5f, planets[index].radius * 2f);
}
注意
请注意,我们最终在代码中使用的比例和距离值是从而不是实际的天体测量中得出的。要体验真正有教育价值的太阳系 VR 体验,请查看《太空巨人》(www.titansofspacevr.com/)。
摄像机的行星视图
gotoPlanet 函数被调用时带有一个行星索引(例如,地球是 2),这样我们就可以将摄像机定位在指定行星附近。Camera 组件被作为行星的 orbitTransform 变量的父级,以获取行星当前的轨道旋转。然后,它被定位为距离太阳的行星距离,然后相对于行星的大小进行偏移。
在 MainActivity 类的设置方法中,我们已经设置了太阳和地球。我们将用一个 setupPlanets 辅助方法替换地球球体:
public void setup() {
//Sun ...
// Planets
setupPlanets(origin);
// Start looking at Earth
goToPlanet(2);
}
如果现在构建并运行项目,您将看到地球、太阳,可能还有一些行星。但直到它们在它们的轨道上运动时,它们才会活跃起来。
动画天体
现在我们已经实例化了所有行星,我们可以对它们的轨道和轴旋转进行动画处理。只需在 MainAcitvity 类的 preDraw 方法中更新它们的变换即可:
@Override
public void preDraw() {
float dt = Time.getDeltaTime();
for(int i = 0; i < planets.length; i++){
planets[i].preDraw(dt);
}
}
跑吧!哦,哇!我感觉自己像个神。嗯,不完全是,因为外面很黑。我们需要星星!
星空天穹
如果宇宙只是一个巨大的球,我们就在其中,那将是我们要想象的实现一个星空球形背景。
在计算机图形学中,您可以创建背景,使场景看起来比实际更大。您可以使用球形纹理或天穹,就像我们将在这里使用的一样。(许多游戏引擎中的常见替代品是由立方体的六个内部面构成的立方体天空盒。)
在我们提供的纹理集中,有milky_way_tex.png。如果res/drawable/目录中没有该文件,请将其拖入其中。
现在,我们可以将星空天穹添加到我们的场景中。将以下代码添加到MainActivity.setup()中:
//Stars in the sky
Transform stars = new Transform()
.setParent(RenderBox.mainCamera.transform, false)
.setLocalScale(Camera.Z_FAR * 0.99f, Camera.Z_FAR * 0.99f, Camera.Z_FAR * 0.99f)
.addComponent(new Sphere(R.drawable.milky_way_tex, false));
这看起来更加神圣。
您可能想知道 0.99 因子是什么意思。不同的 GPU 对浮点数的处理方式不同。虽然有些可能以某种方式在绘制距离上渲染顶点,但其他可能会因为浮点精度而在几何图形“边缘”出现渲染故障。在这种情况下,我们只是通过一个任意小的因子将天空盒拉向相机。在 VR 中,天空盒尽可能远是非常重要的,这样它就不会因视差而被绘制。天空盒在左眼和右眼的确切位置相同,这就是让你的大脑误以为它是无限远的技巧。您可能会发现您需要调整这个因子以避免天空盒中的空洞。
微调地球
如果你是一个太空迷,你可能会想到我们可以对我们的地球模型做一些事情。首先,我们应该添加夜景纹理。(火星和其他行星不需要,因为它们的城市在夜晚关闭了所有的灯光。)此外,地球在其轴上略微倾斜。我们可以修复这个问题。
夜晚纹理
首先,让我们添加夜景纹理。为此,让我们将Earth Java 类作为Planet的子类。右键单击您的 Javasolarsystem文件夹,选择新建 | Java 类,并将其命名为Earth。然后,开始定义它如下:
public class Earth extends Planet {
public Earth(float distance, float radius, float rotation, float orbit, int texId, int nightTexId, Transform origin) {
super(distance, radius, rotation, orbit, origin);
transform.addComponent(new Sphere(texId, nightTexId));
}
}
这要求我们向Planet类添加一个新的构造函数,省略texId,因为地球构造函数创建了新的Sphere组件,这次有两个纹理,textId和nightTexId。
在Planet.java中,添加以下代码:
public Planet(float distance, float radius, float rotation, float orbit, Transform origin){
setupPlanet(distance, radius, rotation, orbit, origin);
}
现在,在MainActivity中,让我们单独创建一个地球,而不是其他行星。在setupPlanets中,修改循环以处理这种情况:
for(int i = 0; i < distances.length; i++){
if (i == 2) {
planets[i] = new Earth(
fudged_distances[i] * DISTANCE_FACTOR,
radii[i] * SCALE_FACTOR,
rotations[i] * DEG_PER_EHOUR,
orbits[i] * DEG_PER_EYEAR * fudged_distances[i] / distances[i],
texIds[i],
R.drawable.earth_night_tex,
origin);
} else {
planets[i] = new Planet(
轴倾斜和摆动
在所有的伟大之中,就像所有的自然和人类一样,地球并不完美。在这种情况下,我们谈论的是倾斜和摆动。地球的旋转轴并不完全垂直于轨道平面。它也在旋转时受到轻微的摆动。我们可以在我们的虚拟模型中展示这一点。
修改Earth类的构造函数如下:
Transform wobble;
public Earth(float distance, float radius, float rotation, float orbit, int texId, int nightTexId, Transform origin) {
super(distance, radius, rotation, orbit, origin);
wobble = new Transform()
.setLocalPosition(distance, 0, 0)
.setParent(orbitTransform, false);
Transform tilt = new Transform()
.setLocalRotation(-23.4f,0,0)
.setParent(wobble, false);
transform
.setParent(tilt, false)
.setLocalPosition(0,0,0)
.addComponent(new Sphere(texId, nightTexId));
}
现在,地球在每一帧的旋转都是针对这个摆动变换的,所以给地球自己的preDraw方法,如下所示:
public void preDraw(float dt){
orbitTransform.rotate(0, dt * orbit, 0);
wobble.rotate(0, dt * 5, 0);
transform.rotate(0, dt * -rotation, 0);
}
改变相机位置
我们太阳系的最后一个特性是使它更具互动性。我的意思是所有这些行星看起来都很酷,但你实际上无法从那么远的地方看到它们。点击 Cardboard 触发器从行星跳到行星,近距离观察一下,怎么样?
幸运的是,我们已经有一个goToPlanet方法,我们用它来设置我们从地球的初始视图。因为MainActivity扩展了CardboardActivity,我们可以使用 Cardboard SDK 的onCardboardTrigger方法(参考developers.google.com/cardboard/android/latest/reference/com/google/vrtoolkit/cardboard/CardboardActivity.html#onCardboardTrigger())。
将以下代码添加到MainActivity中:
int currPlanet = 2;
public void onCardboardTrigger(){
if (++currPlanet >= planets.length)
currPlanet = 0;
goToPlanet(currPlanet);
}
应用程序将从地球(索引 2)附近的摄像机开始。当用户按下硬纸板触发器(或触摸屏幕)时,它将前往火星(3)。然后是木星,依此类推,然后循环回水星(0)。
可能的增强
您能想到对这个项目的其他增强吗?以下是一些您可以考虑并尝试实现的增强:
-
为土星添加环。(一种廉价的实现方法可能是使用具有透明度的平面。)
-
改进
goToPlanet,使摄像机位置在各个位置之间动画变化。 -
添加控件,允许您改变透视或在太空中自由飞行。
-
添加一个俯视选项,以获得太阳系的“传统”图片。(注意在规模上的浮点精度问题。)
-
为每个其他行星添加卫星。(这可以像我们为地球的月球所做的那样实现,以其母行星为原点。)
-
表示火星和木星之间的小行星带。
-
为其他行星添加倾斜和摆动。你知道天王星是侧着自转的吗?
-
为每个行星添加文本标签,使用行星的变换,但始终面向摄像机。在没有 3D 文本对象的情况下,标签可以是预先准备的图像。
-
添加背景音乐。
-
以准确表示给定日期上每个行星的相对位置的方式改进位置精度。
更新 RenderBox 库
随着太阳系项目的实施和我们的代码稳定,您可能会意识到我们构建了一些不一定特定于此应用程序的代码,可以在其他项目中重用,并且应该回到RenderBox库。这就是我们现在要做的。
我们建议您直接在 Android Studio 中执行此操作,从此项目的层次结构视图中选择并复制到其他项目中。执行以下步骤:
-
将太阳系的
res/raw/目录中的所有.shader文件移动到RenderBox库的RenderBox模块的res/raw/目录中。如果您一直在跟进,将会有八个文件,分别是day_night、diffuse_lighting、solid_color_lighting和unilt_tex的顶点和片段.shader文件。 -
将太阳系的
RenderBoxExt模块文件夹中的所有Component和Material的.java文件移动到RenderBox库的RenderBox模块中的相应文件夹中。删除源代码中对MainActivity的所有无效引用。 -
在太阳系项目中,我们在
MainActivity中实现了一个名为loadTexture的方法。它应该属于RenderBox库。找到太阳系的MainActivity.java文件中loadTexture的声明,并剪切代码。然后,打开RenderBox库中的RenderObject.java文件,并将定义粘贴到RenderObject类中。 -
在
RenderBox库中,用RenderObject.loadTexture替换(重构)所有MainActivity.loadTexture的实例。这些将在几个MaterialJava 文件中找到,我们在其中加载材质纹理。 -
在
RenderBox.java中,reset()方法销毁任何材料的句柄。添加我们刚刚引入的新材料的调用:
-
DayNightMaterial.destroy() -
DiffuseLightingMaterial.destroy() -
SolidColorLightingMaterial.destroy() -
UnlitTexMaterial.destroy()
- 解决任何包名称不匹配的问题,并修复任何其他编译时错误,包括删除源代码中对
solarsystem的任何引用。
现在,您应该能够成功重建库(构建 | 生成模块'renderbox'),以生成更新的renderbox[-debug].aar库文件。
最后,太阳系项目现在可以使用新的.aar库。将RenderBoxLib项目的renderbox/build/output文件夹中的renderbox[-debug].aar文件复制到 SolarSystem 的renderbox/文件夹中,用新构建的文件替换同名文件。使用此版本的库构建和运行太阳系项目。
总结
恭喜!你在太阳系科学项目中获得了“A”!
在本章中,我们构建了一个太阳系模拟,可以在虚拟现实中使用 Cardboard VR 观看器和安卓手机查看。本项目使用并扩展了RenderBox库,如第五章 RenderBox Engine中所讨论的那样。
首先,我们向我们的技能库中添加了一个Sphere组件。最初,它是使用纯色光照材质渲染的。然后,我们定义了一个漫反射光照材质,并使用地球图像纹理渲染了这个球体,结果呈现出了一个地球仪。接下来,我们增强了材质以接受两个纹理,为球体的背面/“夜晚”一侧添加了额外的纹理。最后,我们创建了一个未照明的纹理材质,用于太阳。凭借太阳系行星的实际大小和与太阳的距离,我们配置了一个太阳系场景,包括九大行星、地球的月亮和太阳。我们添加了一个星空作为天空圆顶,并为它们适当的自转(日)和公转(年)进行了动画处理。我们还实现了一些交互,通过对 Cardboard 触发事件的响应,将摄像机视图从行星移动到行星。
在下一章中,我们将再次使用我们的球体,这次是为了查看您的 360 度照片库。
第七章:360 度画廊
360 度全景照片和视频是虚拟现实的一种不同方法。与使用 OpenGL 实时渲染 3D 几何图形不同,您让用户四处查看一个预先渲染或拍摄的场景。360 度查看器是向消费者介绍 VR 的绝佳方式,因为它们提供了非常自然的体验,并且易于制作。拍摄照片比实时渲染物体的逼真场景要容易得多。使用新一代 360 度摄像机或 Google 相机应用程序中的全景图像功能很容易记录图像。查看预先录制的图像需要比渲染完整的 3D 场景需要更少的计算机功率,并且在移动 Cardboard 查看器上运行良好。电池电量也不应该是一个问题。
非 VR 360 度媒体已经相当普遍。例如,多年来,房地产列表网站提供了带有基于网络的播放器的全景漫游,让您可以交互地查看空间。同样,YouTube 支持上传和播放 360 度视频,并提供一个带有交互式控件的播放器,可以在播放期间四处查看。Google 地图允许您上传 360 度静态全景图像,就像他们的街景工具一样,您可以使用 Android 或 iOS 应用程序(有关更多信息,请访问www.google.com/maps/about/contribute/photosphere/)或消费者 360 摄像机创建。互联网上充斥着 360 度媒体!
在 VR 中查看 360 度媒体令人惊讶地沉浸,即使是静态照片(甚至没有成对的立体图像)。你站在一个球体的中心,图像投影在内表面上,但你感觉自己真的在被捕捉的场景中。只需转动头部来四处看。
在这个项目中,我们将构建一个照片库,让您可以在手机上浏览照片。常规的平面图片和全景照片将显示在您左侧的大屏幕上。但是 360 度全景照片将完全沉浸您在球形投影中。我们将通过以下步骤完成这个项目:
-
设置新项目
-
查看 360 度全景照片
-
在大型虚拟投影屏幕上查看常规照片
-
为照片添加边框
-
从设备的相机文件夹加载和显示照片图像
-
调整照片的方向和长宽比
-
创建一个用户界面,其中包含一个缩略图图像网格,用于选择要滚动查看的照片
-
确保良好的、响应迅速的 VR 体验,具有线程安全的操作
-
启动 Android 图像查看意图应用程序
此项目的源代码可以在 Packt Publishing 网站上找到,并且在 GitHub 上也可以找到github.com/cardbookvr/gallery360(每个主题都是单独的提交)。
设置新项目
要构建这个项目,我们将使用我们在第五章中创建的RenderBox库,RenderBox Engine。您可以使用您自己的库,或者从本书提供的下载文件或我们的 GitHub 存储库中获取一份副本(使用标记为after-ch6的提交——github.com/cardbookvr/renderboxlib/releases/tag/after-ch6)。有关如何导入RenderBox库的更详细描述,请参阅第五章中的最后一节,在未来项目中使用 RenderBox。要做到这一点,请执行以下步骤:
-
打开 Android Studio,创建一个新项目。让我们将其命名为
Gallery360,并针对Android 4.4 KitKat(API 19)使用空活动。 -
为
renderbox,common和core包创建新模块,使用文件 | 新模块 | 导入.JAR/.AAR 包。 -
将模块设置为应用程序的依赖项,使用文件 | 项目结构。
-
根据第二章中的说明编辑
build.gradle文件,骨架 Cardboard 项目,以便编译 SDK 22。 -
更新
/res/layout/activity_main.xml和AndroidManifest.xml,如前几章所述。 -
将
MainActivity编辑为class MainActivity extends CardboardActivity implements IRenderBox,并实现接口方法存根(Ctrl + I)。
我们可以继续在MainActivity中定义onCreate方法。该类现在有以下代码:
public class MainActivity extends CardboardActivity implements IRenderBox {
private static final String TAG = "Gallery360";
CardboardView cardboardView;
@Override
protected void onCreate(Bundle savedInstanceState) {
super.onCreate(savedInstanceState);
setContentView(R.layout.activity_main);
cardboardView = (CardboardView) findViewById(R.id.cardboard_view);
cardboardView.setRenderer(new RenderBox(this, this));
setCardboardView(cardboardView);
}
@Override
public void setup() {
}
@Override
public void preDraw() {
// code run beginning each frame
}
@Override
public void postDraw() {
// code run end of each frame
}
}
在我们实施这个项目的过程中,我们将创建一些可能成为RenderBoxLib的好扩展的新类。起初,我们将把它们作为这个项目中的常规类。然后,在本章末,我们将帮助您将它们移动到RenderBoxLib项目中,并重新构建库。执行以下步骤:
-
右键单击
gallery360文件夹(com.cardbookvr.gallery360),然后转到新建 | 包,并命名包为RenderBoxExt。 -
在
RenderBoxExt中,创建名为components和materials的包子文件夹。
没有真正的技术需要将其作为一个单独的包,但这有助于组织我们的文件,因为RenderBoxExt中的文件将在本章末被移动到我们的可重用库中。
您可以将一个立方体临时添加到场景中,以确保一切设置正确。将其添加到setup方法中,如下所示:
public void setup() {
new Transform()
.setLocalPosition(0,0,-7)
.setLocalRotation(45,60,0)
.addComponent(new Cube(true));
}
如果你记得的话,立方体是添加到变换中的一个组件。立方体定义了它的几何形状(例如,顶点)。变换定义了它在 3D 空间中的位置、旋转和缩放。
您应该能够在 Android 设备上点击运行'app',没有编译错误,并看到立方体和 Cardboard 分屏视图。
查看 360 度照片
自从发现地球是圆的以来,制图师和水手们一直在努力将球形地球投影到二维图表上。结果是对地球某些区域的不可避免的失真。
注意
要了解更多关于地图投影和球体失真的信息,请访问en.wikipedia.org/wiki/Map_projection。
对于 360 度媒体,我们通常使用等经纬(或子午线)投影,其中球体被展开成柱状投影,随着你向北极和南极推进,纹理会被拉伸,而经线则保持等距垂直直线。为了说明这一点,考虑提索特指示圈(访问en.wikipedia.org/wiki/Tissot%27s_indicatrix了解更多信息),它显示了一个球体,上面有战略性排列的相同圆圈(Stefan Kühn 的插图):
以下图片显示了使用等经纬投影(en.wikipedia.org/wiki/Equirectangular_projection)展开的地球:
我们将为我们的全景照片使用等经纬网格和适当投影(扭曲)的图像作为纹理贴图。为了查看,我们将相机视点放在球体的中心,并将图像渲染到内表面。
您可能已经注意到,我们的地球和其他行星纹理上有相同类型的失真。这是将球形图像映射到平面图像的一种常见方式,事实上,自从我们在第六章中为我们的球体创建 UV 以来,我们一直在“计算”这个问题!您将不得不在 UV 偏移上下些功夫,以防止它们出现拉伸,但您也应该能够以同样的方式在球体上显示全景照片。
查看一个样本全景照片
您可以为这个主题选择任何 360 度等经纬图像。我们在本书中包含了以下海滩照片,名为sample360.jpg:
将其添加到您的项目中。
将要查看的图像复制到项目的res/drawable/文件夹中。现在将以下代码添加到MainActivity.java文件中:
final int DEFAULT_BACKGROUND = R.drawable.sample360;
Sphere photosphere;
@Override
public void setup() {
setupBackground();
}
void setupBackground() {
photosphere = new Sphere(DEFAULT_BACKGROUND, false);
new Transform()
.setLocalScale(Camera.Z_FAR * 0.99f, -Camera.Z_FAR * 0.99f, Camera.Z_FAR * 0.99f)
.addComponent(photosphere);
}
注意,将比例乘以 0.99 可以避免由于某些手机上的浮点精度错误而导致背景图像的不必要剪裁。使用负比例y轴可以补偿纹理着色器的反向渲染(或者您可以修改着色器代码)。
您可以用您的文件名替换可绘制的文件名R.drawable.sample360,如DEFAULT_BACKGROUND变量中所定义的那样。这个变量必须是 final 的,根据 Android 资源系统的要求。
在setup方法中,我们像一直以来一样创建一个Sphere组件。从一个新的变换开始,缩放它,然后向变换添加一个新的Sphere组件,带有我们的资源 ID。我们将对象命名为background,因为以后,这个对象将成为应用程序的默认背景。
运行应用程序,并将手机插入 Cardboard 查看器中。哇!你来到了 Margaritaville!如果这看起来很容易,那么你是对的;它确实很容易!实际上,艰苦的工作是由全景应用程序或其他将图像转换为等距投影的应用程序完成的。其余的工作就是我们一直在做的标准 UV 投影数学!
使用背景图像
我们将制作一个画廊,让用户从多张图片中选择。当用户第一次启动应用程序时,如果用户看到一些更中性的东西会很好。这本书的可下载文件中包含了一个更合适的背景图像。它的名称是bg.png,包含一个常规的网格。将其复制到您的res/drawable/文件夹中。然后,将DEFAULT_BACKGROUND更改为R.drawable.bg。
重新运行应用程序,应该看起来像这样:
查看常规照片
现在我们已经完成了这个,让我们准备我们的应用程序也能够查看常规的平面照片。我们将通过将它们渲染到一个平面上来实现这一点。所以首先我们需要定义一个Plane组件。
定义 Plane 组件并分配缓冲区
Plane组件理所当然地属于RenderBox库,但目前,我们将直接将其添加到应用程序中。
在RenderBoxExt/components/文件夹中创建一个新的 Java 类文件,并将其命名为Plane。将其定义为extends RenderObject,如下所示:
public class Plane extends RenderObject {
}
与RenderBox库中的其他几何图形一样,我们将用三角形定义平面。只需要两个相邻的三角形,总共六个索引。以下数据数组定义了我们默认平面的 3D 坐标、UV 纹理坐标、顶点颜色(中灰色)、法线向量和相应的索引。在类的顶部添加以下代码:
public static final float[] COORDS = new float[] {
-1.0f, 1.0f, 0.0f,
1.0f, 1.0f, 0.0f,
-1.0f, -1.0f, 0.0f,
1.0f, -1.0f, 0.0f
};
public static final float[] TEX_COORDS = new float[] {
0.0f, 1.0f,
1.0f, 1.0f,
0f, 0f,
1.0f, 0f,
};
public static final float[] COLORS = new float[] {
0.5f, 0.5f, 0.5f, 1.0f,
0.5f, 0.5f, 0.5f, 1.0f,
0.5f, 0.5f, 0.5f, 1.0f,
0.5f, 0.5f, 0.5f, 1.0f
};
public static final float[] NORMALS = new float[] {
0.0f, 0.0f, -1.0f,
0.0f, 0.0f, -1.0f,
0.0f, 0.0f, -1.0f,
0.0f, 0.0f, -1.0f
};
public static final short[] INDICES = new short[] {
0, 1, 2,
1, 3, 2
};
现在,我们可以定义Plane构造函数,调用allocateBuffers辅助方法为顶点、法线、纹理和索引分配缓冲区。让我们在类的顶部声明这些变量,并编写方法:
public static FloatBuffer vertexBuffer;
public static FloatBuffer colorBuffer;
public static FloatBuffer normalBuffer;
public static FloatBuffer texCoordBuffer;
public static ShortBuffer indexBuffer;
public static final int numIndices = 6;
public Plane(){
super();
allocateBuffers();
}
public static void allocateBuffers(){
//Already allocated?
if (vertexBuffer != null) return;
vertexBuffer = allocateFloatBuffer(COORDS);
texCoordBuffer = allocateFloatBuffer(TEX_COORDS);
colorBuffer = allocateFloatBuffer(COLORS);
normalBuffer = allocateFloatBuffer(NORMALS);
indexBuffer = allocateShortBuffer(INDICES);
}
同样,我们通过检查vertexBuffer是否为空来确保allocateBuffers只运行一次。(请注意,我们决定将缓冲区声明为public,以便将来可以为对象创建任意纹理材料。)
向 Plane 组件添加材质
接下来,我们可以向Plane添加一个适当的材质,使用纹理图像。使用与内置Sphere组件在第六章太阳系中一致的构造函数 API 模式,我们将添加调用一个新的Plane的能力,带有图像纹理 ID 和可选的光照布尔标志。然后,我们将添加帮助方法来分配相应的Material对象并设置它们的缓冲区:
public Plane(int textureId, boolean lighting) {
super();
allocateBuffers();
if (lighting) {
createDiffuseMaterial(textureId);
} else {
createUnlitTexMaterial(textureId);
}
}
public Plane createDiffuseMaterial(int textureId) {
DiffuseLightingMaterial mat = new DiffuseLightingMaterial(textureId);
mat.setBuffers(vertexBuffer, normalBuffer, texCoordBuffer, indexBuffer, numIndices);
material = mat;
return this;
}
public Plane createUnlitTexMaterial(int textureId) {
UnlitTexMaterial mat = new UnlitTexMaterial(textureId);
mat.setBuffers(vertexBuffer, texCoordBuffer, indexBuffer, numIndices);
material = mat;
return this;
}
向场景添加图像屏幕
现在我们可以在MainActivity中向场景添加图像了。很快我们将在手机的照片文件夹中查看照片,但在这一点上,你可以使用我们之前使用过的相同(全景)照片(或者将另一张放在你的res/drawable文件夹中)。请注意,如果图像对于手机的 GPU 来说太大,可能会出现显示问题。我们稍后会解决这个问题,所以尽量保持在任何维度上小于 4096 像素。
将对象命名为screen,因为稍后我们将用它来投影用户从画廊中选择的照片。
在MainActivity.java中,更新setup函数以添加图像到场景中,如下所示:
Plane screen;
public void setup() {
setupBackground();
setupScreen();
}
void setupScreen() {
screen = new Plane(R.drawable.sample360, false);
new Transform()
.setLocalScale(4, 4, 1)
.setLocalPosition(0, 0, -5)
.setLocalRotation(0, 0, 180)
.addComponent(screen);
}
屏幕按 4 个单位(在 X 和 Y 方向)缩放,并放置在相机前方 5 个单位。这就像坐在离 8 米宽的电影屏幕 5 米(15 英尺)远的地方!
另外,请注意我们在z轴上将平面旋转了 180 度;否则,图像将会颠倒。我们的世界坐标系的上方向沿着正y轴。然而,UV 空间(用于渲染纹理)通常将原点放在左上角,并且正向是向下的。(如果你记得,在上一章中,这就是为什么我们还必须翻转地球的原因)。在本章后面,当我们实现一个Image类时,我们将从图像文件中读取实际的方向并相应地设置旋转。这是我们的带有图像的屏幕平面(从一个角度看):
将屏幕平面(及其图像纹理)与屏幕的放置和大小分开将是方便的。我们稍后会看到这为什么很重要,但这与根据图像参数进行缩放和旋转有关。让我们重构代码,使屏幕由screenRoot变换作为父级,如下所示:
void setupScreen() {
Transform screenRoot = new Transform()
.setLocalScale(4, 4, 1)
.setLocalRotation(0, 0, 180)
.setLocalPosition(0, 0, -5);
screen = new Plane(R.drawable.sample360, false);
new Transform()
.setParent(screenRoot, false)
.addComponent(screen);
}
在图像上放置边框
图像在框架中看起来最好。让我们现在添加一个。有许多方法可以实现这一点,但我们将使用着色器。这个框架也将用于缩略图图像,并且将使我们能够更改颜色以突出显示用户选择图像时的区域。此外,它有助于定义对比区域,确保您可以在任何背景上看到任何图像的边缘。
边框着色器
我们可以先编写着色器程序,其中包括从使用它的Material对象中定义它们需要的变量。
如果需要,为着色器创建一个资源目录res/raw/。然后,创建border_vertex.shader和border_fragment.shader文件。定义如下。
border_vertex着色器与我们之前使用的unlit_tex_vertex着色器是相同的。
文件:res/raw/border_vertex.shader
uniform mat4 u_MVP;
attribute vec4 a_Position;
attribute vec2 a_TexCoordinate;
varying vec3 v_Position;
varying vec2 v_TexCoordinate;
void main() {
// pass through the texture coordinate
v_TexCoordinate = a_TexCoordinate;
// final point in normalized screen coordinates
gl_Position = u_MVP * a_Position;
}
对于border_fragement着色器,我们添加了边框颜色(u_Color)和宽度(u_Width)的变量。然后,添加一些逻辑来决定当前渲染的坐标是在边框上还是在纹理图像中:
文件:res/raw/border_fragment.shader
precision mediump float;
uniform sampler2D u_Texture;
varying vec3 v_Position;
varying vec2 v_TexCoordinate;
uniform vec4 u_Color;
uniform float u_Width;
void main() {
// send the color from the texture straight out unless in // border area
if(
v_TexCoordinate.x > u_Width
&& v_TexCoordinate.x < 1.0 - u_Width
&& v_TexCoordinate.y > u_Width
&& v_TexCoordinate.y < 1.0 - u_Width
){
gl_FragColor = texture2D(u_Texture, v_TexCoordinate);
} else {
gl_FragColor = u_Color;
}
}
请注意,这种技术会切掉图像的边缘。我们发现这是可以接受的,但如果你真的想看到整个图像,你可以在texture2D采样调用中偏移 UV 坐标。它会看起来像这样:
float scale = 1.0 / (1 - u_Width * 2);
Vec2 offset = vec(
v_TexCoordinate.x * scale – u_Width,
v_TexCoordinate.x * scale – u_Width);
gl_FragColor = texture2D(u_Texture, offset);
最后,细心的读者可能会注意到,当平面被非均匀缩放(使其成为矩形)时,边框将被缩放,使得垂直边框可能比水平边框更厚或更薄。有许多方法可以解决这个问题,但这留给(过度努力的)读者作为练习。
边框材质
接下来,我们为边框着色器定义材质。在RenderBoxExt/materials/中创建一个名为BorderMaterial的新 Java 类,并定义如下:
public class BorderMaterial extends Material {
private static final String TAG = "bordermaterial";
}
为纹理 ID、边框宽度和颜色添加材质变量。然后,添加着色器程序引用和缓冲区的变量,如下面的代码所示:
int textureId;
public float borderWidth = 0.1f;
public float[] borderColor = new float[]{0, 0, 0, 1}; // black
static int program = -1; //Initialize to a totally invalid value for setup state
static int positionParam;
static int texCoordParam;
static int textureParam;
static int MVPParam;
static int colorParam;
static int widthParam;
FloatBuffer vertexBuffer;
FloatBuffer texCoordBuffer;
ShortBuffer indexBuffer;
int numIndices;
现在我们可以添加一个构造函数。正如我们之前所见,它调用一个setupProgram辅助方法,该方法创建着色器程序并获取对其参数的引用:
public BorderMaterial() {
super();
setupProgram();
}
public static void setupProgram() {
//Already setup?
if (program > -1) return;
//Create shader program
program = createProgram(R.raw.border_vertex, R.raw.border_fragment);
//Get vertex attribute parameters
positionParam = GLES20.glGetAttribLocation(program, "a_Position");
texCoordParam = GLES20.glGetAttribLocation(program, "a_TexCoordinate");
//Enable them (turns out this is kind of a big deal ;)
GLES20.glEnableVertexAttribArray(positionParam);
GLES20.glEnableVertexAttribArray(texCoordParam);
//Shader-specific parameters
textureParam = GLES20.glGetUniformLocation(program, "u_Texture");
MVPParam = GLES20.glGetUniformLocation(program, "u_MVP");
colorParam = GLES20.glGetUniformLocation(program, "u_Color");
widthParam = GLES20.glGetUniformLocation(program, "u_Width");
RenderBox.checkGLError("Border params");
}
同样,我们添加一个setBuffers方法,该方法将由RenderObject组件(Plane)调用:
public void setBuffers(FloatBuffer vertexBuffer, FloatBuffer texCoordBuffer, ShortBuffer indexBuffer, int numIndices){
//Associate VBO data with this instance of the material
this.vertexBuffer = vertexBuffer;
this.texCoordBuffer = texCoordBuffer;
this.indexBuffer = indexBuffer;
this.numIndices = numIndices;
}
为纹理 ID 提供一个 setter 方法:
public void setTexture(int textureHandle) {
textureId = textureHandle;
}
添加绘制代码,该代码将从Camera组件调用,以渲染通过setBuffer准备的几何图形。绘制方法如下:
@Override
public void draw(float[] view, float[] perspective) {
GLES20.glUseProgram(program);
// Set the active texture unit to texture unit 0.
GLES20.glActiveTexture(GLES20.GL_TEXTURE0);
// Bind the texture to this unit.
GLES20.glBindTexture(GLES20.GL_TEXTURE_2D, textureId);
// Tell the texture uniform sampler to use this texture in // the shader by binding to texture unit 0.
GLES20.glUniform1i(textureParam, 0);
Matrix.multiplyMM(modelView, 0, view, 0, RenderObject.model, 0);
Matrix.multiplyMM(modelViewProjection, 0, perspective, 0, modelView, 0);
// Set the ModelViewProjection matrix for eye position.
GLES20.glUniformMatrix4fv(MVPParam, 1, false, modelViewProjection, 0);
GLES20.glUniform4fv(colorParam, 1, borderColor, 0);
GLES20.glUniform1f(widthParam, borderWidth);
//Set vertex attributes
GLES20.glVertexAttribPointer(positionParam, 3, GLES20.GL_FLOAT, false, 0, vertexBuffer);
GLES20.glVertexAttribPointer(texCoordParam, 2, GLES20.GL_FLOAT, false, 0, texCoordBuffer);
GLES20.glDrawElements(GLES20.GL_TRIANGLES, numIndices, GLES20.GL_UNSIGNED_SHORT, indexBuffer);
RenderBox.checkGLError("Border material draw");
}
还有一件事;让我们提供一个销毁现有材质的方法:
public static void destroy(){
program = -1;
}
使用边框材质
为了使用BorderMaterial类而不是先前在Plane类中编写的默认UnlitTexMaterial类,我们可以将其添加到PlaneJava 类中,如下所示。我们计划在Plane类之外(在MainActivity中)创建材质,因此我们只需要设置它。在Plane.java中,添加以下代码:
public void setupBorderMaterial(BorderMaterial material){
this.material = material;
material.setBuffers(vertexBuffer, texCoordBuffer, indexBuffer, numIndices);
}
在MainActivity中,修改setupScreen方法以使用此材质而不是默认材质,如下所示。我们首先创建材质并将纹理设置为我们的示例图像。我们不需要设置颜色,默认为黑色。然后我们创建屏幕平面并设置其材质。然后创建变换并添加屏幕组件:
void setupScreen() {
//...
Screen = new Plane();
BorderMaterial screenMaterial = new BorderMaterial();
screenMaterial.setTexture(RenderBox.loadTexture( R.drawable.sample360));
screen.setupBorderMaterial(screenMaterial);
//...
}
现在运行它,它应该看起来像这样:
加载和显示照片图像
到目前为止,我们已经在项目的drawable资源文件夹中使用图像。下一步是从手机中读取照片图像并在虚拟屏幕上显示其中一个。
定义图像类
让我们制作一个占位符Image类。稍后,我们将构建属性和方法。定义如下:
public class Image {
final static String TAG = "image";
String path;
public Image(String path) {
this.path = path;
}
public static boolean isValidImage(String path){
String extension = getExtension(path);
if(extension == null)
return false;
switch (extension){
case "jpg":
return true;
case "jpeg":
return true;
case "png":
return true;
}
return false;
}
static String getExtension(String path){
String[] split = path.split("\\.");
if(split== null || split.length < 2)
return null;
return split[split.length - 1].toLowerCase();
}
}
我们定义一个构造函数,该构造函数接受图像的完整路径。我们还提供一个验证方法,该方法检查路径是否实际上是图像,基于文件名扩展名。我们不想在构造时加载和绑定图像数据,因为我们不想一次加载所有图像;正如您将看到的,我们将使用工作线程来智能地管理这些。
将图像读入应用程序
现在在MainActivity中,访问手机上的照片文件夹,并在我们的应用程序中构建图像列表。以下getImageList辅助方法查找给定文件夹路径,并为找到的每个文件实例化一个新的Image对象:
final List<Image> images = new ArrayList<>();
int loadImageList(String path) {
File f = new File(path);
File[] file = f.listFiles();
if (file==null)
return 0;
for (int i = 0; i < file.length; i++) {
if (Image.isValidImage(file[i].getName())) {
Image img = new Image(path + "/" + file[i].getName());
images.add(img);
}
}
return file.length;
}
在setup方法中使用此方法,传入相机图像文件夹路径的名称,如下所示(您的路径可能有所不同):
final String imagesPath = "/storage/emulated/0/DCIM/Camera";
public void setup() {
…
loadImageList(imagesPath);
}
还要确保在您的AndroidManifest.xml文件中包含以下行,以赋予应用程序读取设备外部存储的权限。从技术上讲,使用 Cardboard SDK 时,您应该已经拥有此权限:
<uses-permission android:name="android.permission.READ_EXTERNAL_STORAGE" />
您可以向getImageList循环添加日志消息并运行它以验证它是否正在找到文件。如果没有,您可能需要发现您的照片文件夹的实际路径。
这是我们需要非常小心权限的第一个项目。直到这一点,Cardboard SDK 本身是唯一需要访问文件系统的东西,但现在我们需要它来使应用程序本身正常运行。如果您使用的是 Andriod 6.0 的设备,并且您没有确保将应用程序编译为 SDK 22,您将无法加载图像文件,应用程序要么无所作为,要么崩溃。
如果您正在针对 SDK 22 进行编译,并且在清单中正确设置了权限,但仍然获得空文件列表,请尝试使用文件浏览器在设备上查找正确的路径。很可能是我们提供的路径不存在或为空。当然,确保您确实使用该设备拍摄了照片!
图像加载纹理
如果您还记得,在第六章太阳系中,我们编写了一个loadTexture方法,该方法从项目的res/drawable文件夹中读取静态图像到内存位图,并将其绑定到 OpenGL 中的纹理。在这里,我们将做类似的事情,但是从手机的相机路径中获取图像,并提供额外处理的方法,例如调整大小和旋转方向。
在Image类的顶部,添加一个变量来保存当前的纹理句柄:
int textureHandle;
图像的loadTexture方法,给定图像文件的路径,将图像文件加载到位图中,然后将其转换为纹理。(此方法将从MainActivity中的应用程序的CardboardView类中调用。)编写如下:
public void loadTexture(CardboardView cardboardView) {
if (textureHandle != 0)
return;
final Bitmap bitmap = BitmapFactory.decodeFile(path);
if (bitmap == null){
throw new RuntimeException("Error loading bitmap.");
}
textureHandle = bitmapToTexture(bitmap);
}
我们添加了一个小的(但重要的)优化,检查纹理是否已经加载;如果不需要,就不要再次加载。
我们的bitmapToTexture的实现如下所示。给定一个位图,它将位图绑定到 OpenGL ES 纹理(带有一些错误检查)。将以下代码添加到Image中:
public static int bitmapToTexture(Bitmap bitmap){
final int[] textureHandle = new int[1];
GLES20.glGenTextures(1, textureHandle, 0);
RenderBox.checkGLError("Bitmap GenTexture");
if (textureHandle[0] != 0) {
// Bind to the texture in OpenGL
GLES20.glBindTexture(GLES20.GL_TEXTURE_2D, textureHandle[0]);
// Set filtering
GLES20.glTexParameteri(GLES20.GL_TEXTURE_2D, GLES20.GL_TEXTURE_MIN_FILTER, GLES20.GL_NEAREST);
GLES20.glTexParameteri(GLES20.GL_TEXTURE_2D, GLES20.GL_TEXTURE_MAG_FILTER, GLES20.GL_NEAREST);
// Load the bitmap into the bound texture.
GLUtils.texImage2D(GLES20.GL_TEXTURE_2D, 0, bitmap, 0);
}
if (textureHandle[0] == 0){
throw new RuntimeException("Error loading texture.");
}
return textureHandle[0];
}
在屏幕上显示图像
让我们在应用程序中显示我们的相机图像之一,比如第一个。
在虚拟屏幕上显示图像,我们可以编写一个show方法,该方法接受当前的CardboardView对象和Plane屏幕。它将加载和绑定图像纹理,并将其句柄传递给材质。在Image类中,实现show方法如下:
public void show(CardboardView cardboardView, Plane screen) {
loadTexture(cardboardView);
BorderMaterial material = (BorderMaterial) screen.getMaterial();
material.setTexture(textureHandle);
}
现在让我们使用这些东西!转到MainActivity并编写一个单独的showImage方法来加载图像纹理。然后,暂时从setup中调用它,使用我们找到的第一个图像(您的相机文件夹中至少需要一个图像):
public void setup() {
setupBackground();
setupScreen();
loadImageList(imagesPath);
showImage(images.get(0));
}
void showImage(Image image) {
image.show(cardboardView, screen);
}
现在修改setupScreen也是有意义的,因此它创建屏幕但不在其上加载图像纹理。删除其中的screenMaterial.setTexture调用。
现在运行应用程序,您将在屏幕上看到自己的图像。这是我的:
旋转到正确的方向
一些图像文件类型会跟踪它们的图像方向,特别是 JPG 文件(.jpg或.jpeg)。我们可以从文件中包含的 EXIF 元数据中获取方向值,该元数据由相机应用程序编写。(例如,请参阅sylvana.net/jpegcrop/exif_orientation.html。请注意,某些设备可能不符合规定或包含不同的结果。)
如果图像不是 JPG,我们将跳过此步骤。
在Image类的顶部,声明一个变量来保存当前图像的旋转:
Quaternion rotation;
rotation值存储为Quaternion实例,如我们的 RenderBox 数学库中定义的那样。如果您还记得第五章RenderBox 引擎,四元数表示三维空间中的旋转方向,比欧拉角更精确和更不含糊。但是欧拉角更符合人类的习惯,指定每个x、y和z轴的角度。因此,我们将根据图像的方向使用欧拉角设置四元数。最终,我们在这里使用Quaternion,因为它是Transform.rotation的基础类型:
void calcRotation(Plane screen){
rotation = new Quaternion();
// use Exif tags to determine orientation, only available // in jpg (and jpeg)
String ext = getExtension(path);
if (ext.equals("jpg") || ext.equals("jpeg")) {
try {
ExifInterface exif = new ExifInterface(path);
switch (exif.getAttribute(ExifInterface.TAG_ORIENTATION)) {
// Correct orientation, but flipped on the // horizontal axis
case "2":
rotation = new Quaternion().setEulerAngles(180, 0, 0);
break;
// Upside-down
case "3":
rotation = new Quaternion().setEulerAngles(0, 0, 180);
break;
// Upside-Down & Flipped along horizontal axis
case "4":
rotation = new Quaternion().setEulerAngles(180, 0, 180);
break;
// Turned 90 deg to the left and flipped
case "5":
rotation = new Quaternion().setEulerAngles(0, 180, 90);
break;
// Turned 90 deg to the left
case "6":
rotation = new Quaternion().setEulerAngles(0, 0, -90);
break;
// Turned 90 deg to the right and flipped
case "7":
rotation = new Quaternion().setEulerAngles(0, 180, 90);
break;
// Turned 90 deg to the right
case "8":
rotation = new Quaternion().setEulerAngles(0, 0, 90);
break;
//Correct orientation--do nothing
default:
break;
}
} catch (IOException e) {
e.printStackTrace();
}
}
screen.transform.setLocalRotation(rotation);
}
现在在Image类的show方法中设置屏幕的旋转,如下所示:
public void show(CardboardView cardboardView, Plane screen) {
loadTexture(cardboardView);
BorderMaterial material = (BorderMaterial) screen.getMaterial();
material.setTexture(textureHandle);
calcRotation(screen);
}
再次运行您的项目。图像应该被正确定向。请注意,您的原始图像可能一直都很好。一旦我们开始使用缩略图网格,检查旋转代码是否有效将变得更容易。
纠正宽度和高度的尺寸
方形图像很容易。但通常,照片是矩形的。我们可以获取图像的实际宽度和高度,并相应地缩放屏幕,以便显示不会出现扭曲。
在Image类的顶部,声明变量来保存当前图像的宽度和高度:
int height, width;
然后,在decodeFile方法中使用位图选项设置它们,如下所示:
public void loadTexture(CardboardView cardboardView) {
if (textureHandle != 0)
return;
BitmapFactory.Options options = new BitmapFactory.Options();
final Bitmap bitmap = BitmapFactory.decodeFile(path, options);
if (bitmap == null){
throw new RuntimeException("Error loading bitmap.");
}
width = options.outWidth;
height = options.outHeight;
textureHandle = bitmapToTexture(bitmap);
}
decodeFile调用将返回选项中的图像宽度和高度(以及其他信息)(参考developer.android.com/reference/android/graphics/BitmapFactory.Options.html)。
现在我们可以在Image类的show方法中设置屏幕大小。我们将规范化比例,使得较长的一侧为 1.0,较短的一侧根据图像纵横比计算:
public void show(CardboardView cardboardView, Plane screen) {
loadTexture(cardboardView);
BorderMaterial material = (BorderMaterial) screen.getMaterial();
material.setTexture(textureHandle);
calcRotation(screen);
calcScale(screen);
}
void calcScale(Plane screen) {
if (width > 0 && width > height) {
screen.transform.setLocalScale(1, (float) height / width, 1);
} else if(height > 0) {
screen.transform.setLocalScale((float) width / height, 1, 1);
}
}
如果您现在运行它,屏幕将具有图像的正确纵横比:
将图像缩小到指定大小
您手机上的相机可能非常棒!它可能真的非常棒!当打印或进行大量裁剪时,百万像素图像非常重要。但是在我们的应用程序中查看时,我们不需要全分辨率图像。实际上,如果图像大小生成了对设备硬件来说太大的纹理,您可能已经在运行此项目时遇到了问题。
当加载纹理时,我们可以通过限制最大尺寸并将位图缩放到这些约束范围内来解决此问题。我们将要求 OpenGL ES 告诉我们当前的最大纹理尺寸。我们将在MainActivity中执行此操作,因此它通常是可用的(和/或将其移动到RenderBox库项目中的RenderBox类中)。将以下内容添加到MainActivity:
static int MAX_TEXTURE_SIZE = 2048;
void setupMaxTextureSize() {
//get max texture size
int[] maxTextureSize = new int[1];
GLES20.glGetIntegerv(GLES20.GL_MAX_TEXTURE_SIZE, maxTextureSize, 0);
MAX_TEXTURE_SIZE = maxTextureSize[0];
Log.i(TAG, "Max texture size = " + MAX_TEXTURE_SIZE);
}
我们将其称为MainActivity类的setup方法的第一行。
至于缩放图像,不幸的是,Android 的BitmapFactory不允许您直接请求采样图像的新大小。相反,对于任意图像,您可以指定采样率,例如每隔一个像素(2),每隔四个像素(4)等。它必须是 2 的幂。
回到Image类。首先,我们将在loadTexture中添加一个sampleSize参数,该参数可以用作decodeFile的参数,如下所示:
public void loadTexture(CardboardView cardboardView, int sampleSize) {
if (textureHandle != 0)
return;
BitmapFactory.Options options = new BitmapFactory.Options();
options.inSampleSize = sampleSize;
final Bitmap bitmap = BitmapFactory.decodeFile(path, options);
if(bitmap == null){
throw new RuntimeException("Error loading bitmap.");
}
width = options.outWidth;
height = options.outHeight;
textureHandle = bitmapToTexture(bitmap);
}
要确定图像的适当采样大小,我们首先需要找出其完整尺寸,然后找出哪个采样大小最接近但小于我们将使用的最大纹理尺寸。数学并不太困难,但我们将使用程序方法来搜索最佳大小值,而不是进行这样的搜索。
幸运的是,decodeFile的一个输入选项是仅检索图像边界,而不是实际加载图像。编写一个名为loadFullTexture的新加载纹理方法,如下所示:
public void loadFullTexture(CardboardView cardboardView) {
// search for best size
int sampleSize = 1;
BitmapFactory.Options options = new BitmapFactory.Options();
options.inJustDecodeBounds = true;
do {
options.inSampleSize = sampleSize;
BitmapFactory.decodeFile(path, options);
sampleSize *= 2;
} while (options.outWidth > MainActivity.MAX_TEXTURE_SIZE || options.outHeight > MainActivity.MAX_TEXTURE_SIZE);
sampleSize /= 2;
loadTexture(cardboardView, sampleSize);
}
我们不断增加采样大小,直到找到一个在MAX_TEXTURE_SIZE范围内生成位图的大小,并然后调用loadTexture。
在show方法中使用loadFullTexture而不是其他的loadTexture:
public void show(CardboardView cardboardView, Plane screen) {
loadFullTexture(cardboardView);
BorderMaterial material = (BorderMaterial) screen.getMaterial();
...
运行项目。它应该看起来与之前的一样。但是如果您的相机太好,也许它不会像以前那样崩溃。
这种采样还将有助于在用户界面中显示图像的缩略图版本。对于缩略图视图,加载全尺寸的位图没有意义。
加载和显示全景图像
到目前为止,我们一直以相同的方式处理所有图像。但其中一些可能是 360 度图像。这些应该显示在全景照片上,而不是虚拟屏幕上。
如果您的设备相机文件夹中还没有 360 度照片,可以使用 Google 相机应用程序创建它们。
注意
如果您手机上的默认相机应用程序不包括全景模式,则可能需要从 Play 商店下载 Google 相机应用程序。第三方相机可能使用不同的名称。例如,三星将其全景功能称为环绕拍摄。
一些图像包括 XMP 元数据,其中将包括有关图像是否为等距投影而畸变的信息。这对于区分球形图像和平面图像可能很有用。但是,Android API 不包括 XMP 接口,因此集成 XMP 头解析超出了本书的范围。
现在,我们只需检查文件名是否以PANO_为前缀。将以下变量添加到Image类中,并在构造方法中设置它:
public boolean isPhotosphere;
public Image(String path) {
this.path = path;
isPhotosphere = path.toLowerCase().contains("pano");
}
现在我们可以构建MainActivity显示方法来处理普通照片(显示在虚拟屏幕上)与照片球(显示在背景球上)。此外,它应该处理在虚拟屏幕上显示的平面图像与渲染照片球之间的切换,反之亦然。
我们希望记住背景照片球纹理的纹理句柄 ID。在MainActivity类的顶部添加一个bgTextureHandle句柄:
int bgTextureHandle;
然后,在setupBackground中调用getTexture设置它:
void setupBackground() {
photosphere = new Sphere(DEFAULT_BACKGROUND, false);
new Transform()
.setLocalScale(Camera.Z_FAR * 0.99f,-Camera.Z_FAR * 0.99f, Camera.Z_FAR * 0.99f)
.addComponent(photosphere);
UnlitTexMaterial mat = (UnlitTexMaterial) photosphere.getMaterial();
bgTextureHandle = mat.getTexture();
}
现在我们可以更新showImage方法,如下所示:
void showImage(Image image) {
UnlitTexMaterial bgMaterial = (UnlitTexMaterial) photosphere.getMaterial();
image.loadFullTexture(cardboardView);
if (image.isPhotosphere) {
bgMaterial.setTexture(image.textureHandle);
screen.enabled = false;
} else {
bgMaterial.setTexture(bgTextureHandle);
screen.enabled = true;
image.show(cardboardView, screen);
}
}
当图像是照片球时,我们将将背景照片球纹理设置为图像,并隐藏屏幕平面。当图像是普通照片时,我们将将背景纹理恢复为默认值,并在虚拟屏幕上显示图像。
在我们实现用户界面(下一步)进行测试之前,您需要知道图像列表中哪个图像是照片球。如果现在制作一个新的照片球,它将成为列表中的最后一个,并且您可以更改setup方法以调用showImage。例如,运行以下代码:
showImage(images.get(images.size()-1));
再次运行项目并感到高兴!
图像库用户界面
在我们继续为该项目实现用户界面之前,让我们谈谈我们希望它如何工作。
该项目的目的是允许用户从其手机存储中选择照片并在 VR 中查看它。手机的照片集将以可滚动的缩略图图像网格的形式呈现。如果照片是普通的 2D 照片,它将显示在我们刚刚制作的虚拟屏幕平面上。如果是照片球,我们将将其视为完全沉浸式的 360 度球形投影。
我们提议的场景布局草图如下图所示。用户摄像头位于原点,照片球由灰色圆圈表示,围绕用户周围。在用户面前(由启动时的校准确定),将有一个来自手机相册的 5 x 3 网格的缩略图图像。这将是一个可滚动的列表。在用户的左侧,有图像投影屏幕。
具体来说,UI 将实现以下功能:
-
在 5 x 3 网格中显示最多 15 个缩略图图像。
-
允许用户通过观看缩略图图像并单击 Cardboard 触发器来选择其中之一。当处于视线中时,缩略图将被突出显示。
-
选择普通照片将在场景中的虚拟投影屏幕上显示它(并将照片球清除为背景图像)。
-
选择照片球将隐藏虚拟投影屏幕并将图像加载到照片球投影中。
-
允许用户通过选择上/下箭头滚动缩略图图像。
我们的一些 UI 考虑是虚拟现实独特的。最重要的是,所有用户界面元素和控件都在世界坐标空间中,也就是说,它们被集成到场景中作为具有位置、旋转和比例的几何对象,就像任何其他组件一样。这与大多数移动游戏中 UI 作为屏幕空间叠加的方式实现的情况形成对比。
为什么?因为在 VR 中,为了创建立体效果,每只眼睛都有一个单独的视点,通过瞳孔间距进行偏移。这可以通过在屏幕空间中水平偏移屏幕空间对象的位置来模拟,使它们看起来具有视差(这是我们在第四章中使用的技术,启动器大厅)。但是当与 3D 几何、摄像机、照明和渲染混合时,该技术证明是不够的。需要一个世界空间 UI 来实现有效的用户体验和沉浸感。
另一个在 VR 中独有的功能是凝视选择。在这种情况下,您的凝视会突出显示一个图像缩略图,然后您点击 Cardboard 触发器打开图像。
最后,正如前面提到的,由于我们是在世界空间中工作,并且根据我们的凝视进行选择,我们的 3D 空间的布局是一个重要考虑因素。请记住,我们处于 VR 环境中,不受手机屏幕矩形边缘的限制。场景中的对象可以放置在您周围的任何位置。另一方面,您不希望用户一直扭来扭去(除非这是体验的一个意图部分)。我们将注意舒适区域来放置我们的 UI 控件和图像屏幕。
此外,谷歌和其他地方的研究人员已经开始制定用户界面设计的最佳实践,包括菜单和 UI 控件与摄像头的最佳距离,大约为 5 到 15 英尺(1.5 到 5 米)。这个距离足够近,可以享受 3D 视差效果,但不会让你看起来眯着眼睛专注于物体。
好的,让我们开始 UI 实现。
将照片屏幕定位在左侧
首先,让我们将屏幕从前方移动到侧面,即将其向左旋转 90 度。我们的变换数学在旋转后进行位置,所以现在我们沿x轴偏移它。修改MainActivity类的setupScreen方法,如下所示:
void setupScreen() {
Transform screenRoot = new Transform()
.setLocalScale(4, 4, 1)
.setLocalRotation(0, -90, 0)
.setLocalPosition(-5, 0, 0);
...
在网格中显示缩略图
缩略图是完整图像的迷你版本。因此,我们不需要加载全尺寸的纹理位图。为了简单起见,让我们总是将其缩小 4 倍(原始尺寸的 1/16)。
缩略图图像
在Image类中,show方法加载完整的纹理。让我们编写一个类似的showThumbnail方法,使用较小的采样。在Image类中,添加以下代码:
public void showThumbnail(CardboardView cardboardView, Plane thumb) {
loadTexture(cardboardView, 4);
BorderMaterial material = (BorderMaterial) thumb.getMaterial();
material.setTexture(textureHandle);
calcRotation(thumb);
calcScale(thumb);
}
缩略图类
为项目创建一个新的Thumbnail类,其中包含一个小的Plane对象和一个Image对象来显示。它还获取当前的cardboardView实例,Image将需要它:
public class Thumbnail {
final static String TAG = "Thumbnail";
public Plane plane;
public Image image;
CardboardView cardboardView;
public Thumbnail(CardboardView cardboardView) {
this.cardboardView = cardboardView;
}
}
定义一个setImage方法,加载图像纹理并显示为缩略图:
public void setImage(Image image) {
this.image = image;
// Turn the image into a GPU texture
image.loadTexture(cardboardView, 4);
// TODO: wait until texture binding is done
// show it
image.showThumbnail(cardboardView, plane);
}
最后,为缩略图可见性添加一个快速切换:
public void setVisible(boolean visible) {
plane.enabled = visible;
}
缩略图网格
计划在MainActivity类的顶部显示 5x3 缩略图图像网格。声明一个thumbnails变量来保存缩略图列表:
final int GRID_X = 5;
final int GRID_Y = 3;
final List<Thumbnail> thumbnails = new ArrayList<>();
在一个名为setupThumbnailGrid的新方法中构建列表。第一个缩略图位于页面的左上角(-4,3,-5),每个缩略图在x轴上间隔 2.1 个单位,在y轴上间隔 3 个单位,如下所示:
void setupThumbnailGrid() {
int count = 0;
for (int i = 0; i < GRID_Y; i++) {
for (int j = 0; j < GRID_X; j++) {
if (count < images.size()) {
Thumbnail thumb = new
Thumbnail(cardboardView);
thumbnails.add(thumb);
Transform image = new Transform();
image.setLocalPosition(-4 + j * 2.1f, 3 - i * 3, -5);
Plane imgPlane = new Plane();
thumb.plane = imgPlane;
imgPlane.enabled = false;
BorderMaterial material = new BorderMaterial();
imgPlane.setupBorderMaterial(material);
image.addComponent(imgPlane);
}
count++;
}
}
}
现在我们需要将图像纹理添加到平面上。我们将编写另一个方法updateThumbnails,如下所示。它将在网格中显示前 15 张图像(如果没有那么多,就显示更少):
void updateThumbnails() {
int count = 0;
for (Thumbnail thumb : thumbnails) {
if (count < images.size()) {
thumb.setImage(images.get(count));
thumb.setVisible(true);
} else {
thumb.setVisible(false);
}
count++;
}
}
将这些新方法添加到setup中:
public void setup() {
setupMaxTextureSize();
setupBackground();
setupScreen();
loadImageList(imagesPath);
setupThumbnailGrid();
updateThumbnails();
}
当您运行项目时,它应该看起来像这样:
请注意,缩略图的大小已调整以匹配图像的宽高比,并且已正确定向,因为我们之前在Image类中实现了这些功能。
提示
如果您的手机上已经没有超过 15 张照片,请在loadImageList中添加一个循环来加载重复的照片。例如,运行以下代码:
for(int j = 0; j < 3; j++) { //Repeat image list
for (int i = 0; i < file.length; i++) {
if (Image.isValidImage(file[i].getName())) {
...
凝视加载
我们希望检测用户何时看着缩略图,并通过更改其边框颜色来突出显示图像。如果用户将目光从缩略图移开,它将取消突出显示。当用户点击 Cardboard 触发器时,该图像将被加载。
凝视突出显示
幸运的是,我们在第五章的末尾在RenderBox库中实现了isLooking检测,RenderBox Engine。如果您还记得,该技术通过检查相机和平面位置之间的矢量是否与相机的视图方向相同来确定用户是否正在查看平面,容忍度为阈值。
我们可以在MainActivity中使用这个。我们将编写一个selectObject辅助方法,检查场景中是否有任何对象被选中并突出显示它们。首先,让我们在MainActivity类的顶部声明一些变量。selectedThumbnail对象保存当前选定的缩略图索引。我们为正常和选定状态定义边框颜色:
final float[] selectedColor = new float[]{0, 0.5f, 0.5f, 1};
final float[] invalidColor = new float[]{0.5f, 0, 0, 1};
final float[] normalColor = new float[]{0, 0, 0, 1};
Thumbnail selectedThumbnail = null;
现在,selectObject方法会遍历每个缩略图,检查它是否isLooking,并相应地突出显示(或取消突出显示)它:
void selectObject() {
selectedThumbnail = null;
for (Thumbnail thumb : thumbnails) {
if (thumb.image == null)
return;
Plane plane = thumb.plane;
BorderMaterial material = (BorderMaterial) plane.getMaterial();
if (plane.isLooking) {
selectedThumbnail = thumb;
material.borderColor = selectedColor;
} else {
material.borderColor = normalColor;
}
}
}
RenderBox提供了一些挂钩,包括postDraw,我们将在其中检查选定的对象。我们希望使用postDraw,因为我们需要等到在所有RenderObjects上调用draw之后才知道用户正在查看哪一个。在MainActivity中,添加对selectObject方法的调用,如下所示:
@Override
public void postDraw() {
selectObject();
}
运行项目。当您盯着缩略图图像时,它应该会被突出显示!
选择和显示照片
现在,我们可以从缩略图网格中选择图像,我们需要一种点击它并显示该图像的方法。这将在MainActivity中使用 Cardboard SDK 挂钩onCardboardTrigger来实现。
到目前为止,我们所做的工作不需要太多就可以实现这一点:
@Override
public void onCardboardTrigger() {
if (selectedThumbnail != null) {
showImage(selectedThumbnail.image);
}
}
尝试运行它。现在突出显示一个图像并扳动扳机。如果你幸运的话,它会工作……我的崩溃了。
排队事件
发生了什么?我们遇到了线程安全问题。到目前为止,我们一直在渲染线程中执行所有代码,该线程由GLSurfaceView/CardboardView类通过 Cardboard SDK 启动。该线程拥有对 GPU 和我们正在渲染的特定表面的访问权限。对onCardboardTrigger的调用来自不是渲染线程的线程。这意味着我们不能从这里进行任何 OpenGL 调用。幸运的是,GLSurfaceView提供了一种通过名为queueEvent的方法在渲染线程上执行任意代码的巧妙方法。queueEvent方法接受一个Runnable参数,这是一个用于创建这类一次性过程的 Java 类(参见[developer.android.com/reference/android/opengl/GLSurfaceView.html#queueEvent(java.lang.Runnable](developer.android.com/reference/a…
修改showImage,将其包装在Runnable参数中,如下所示:
void showImage(final Image image) {
cardboardView.queueEvent(new Runnable() {
@Override
public void run() {
UnlitTexMaterial bgMaterial = (UnlitTexMaterial) photosphere.getMaterial();
image.loadFullTexture(cardboardView);
if (image.isPhotosphere) {
Log.d(TAG, "!!! is photosphere");
bgMaterial.setTexture(image.textureHandle);
screen.enabled = false;
} else {
bgMaterial.setTexture(bgTextureHandle);
screen.enabled = true;
image.show(cardboardView, screen);
}
}
});
}
请注意,传递给匿名类的任何数据,例如我们的图像,必须声明为final,才能从新过程中访问。
尝试再次运行项目。它应该可以工作。您可以盯着缩略图,点击触发器,该图像将被显示,无论是在虚拟屏幕上还是在背景光球中。
使用振动器
别担心,我们会保持干净。我们希望在用户选择图像时为用户提供一些触觉反馈,使用手机的振动器。而在 Android 中,这是直截了当的。
首先,确保您的AndroidManifest.xml文件包含以下代码行:
<uses-permission android:name="android.permission.VIBRATE" />
在MainActivity类的顶部,声明一个vibrator变量:
private Vibrator vibrator;
然后,在onCreate中,添加以下代码进行初始化:
vibrator = (Vibrator) getSystemService(Context.VIBRATOR_SERVICE);
然后,在onCardboardTrigger中使用它,如下所示:
vibrator.vibrate(25);
再次运行。点击它,你会感觉到它。*啊!*但不要得意忘形,它不是那种振动器。
启用滚动
我们的缩略图网格有 15 张图像。如果您的手机有超过 15 张照片,您需要滚动列表。对于这个项目,我们将实现一个简单的机制来上下滚动列表,使用三角形滚动按钮。
创建三角形组件
与我们的RenderBox中的其他RenderObjects一样,Triangle组件定义了描述三角形的坐标、法线、索引和其他数据。我们创建一个分配缓冲区的构造方法。与Plane组件一样,我们希望使用BorderMaterial类,以便在选择时可以突出显示。与Plane组件一样,它将确定用户何时在查看它。话不多说,这是代码。
在RenderBoxExt/components文件夹中创建一个新的 Java 类文件Triangle.java。我们首先声明它extends RenderObject,并声明以下变量:
public class Triangle extends RenderObject {
/*
Special triangle for border shader
* 0/3 (0,1,0)/(0,1,0) (0,1)/(1,1)
/|\
/ | \
*--*--*
1 2 4
*/
private static final float YAW_LIMIT = 0.15f;
private static final float PITCH_LIMIT = 0.15f;
public static final float[] COORDS = new float[] {
0f, 1.0f, 0.0f,
-1.0f, -1.0f, 0.0f,
0.0f, -1.0f, 0.0f,
0f, 1.0f, 0.0f,
1.0f, -1.0f, 0.0f,
};
public static final float[] TEX_COORDS = new float[] {
0f, 1f,
0f, 0f,
0.5f, 0f,
1f, 1f,
1f, 0f
};
public static final float[] COLORS = new float[] {
0.5f, 0.5f, 0.5f, 1.0f,
0.5f, 0.5f, 0.5f, 1.0f,
0.5f, 0.5f, 0.5f, 1.0f,
0.5f, 0.5f, 0.5f, 1.0f,
0.5f, 0.5f, 0.5f, 1.0f
};
public static final float[] NORMALS = new float[] {
0.0f, 0.0f, -1.0f,
0.0f, 0.0f, -1.0f,
0.0f, 0.0f, -1.0f,
0.0f, 0.0f, -1.0f,
0.0f, 0.0f, -1.0f
};
public static final short[] INDICES = new short[] {
1, 0, 2,
2, 3, 4
};
private static FloatBuffer vertexBuffer;
private static FloatBuffer colorBuffer;
private static FloatBuffer normalBuffer;
private static FloatBuffer texCoordBuffer;
private static ShortBuffer indexBuffer;
static final int numIndices = 6;
static boolean setup;
}
如果不清楚为什么我们需要这个由 2 个三角形组成的三角形,那是因为 UV 的工作方式。您无法仅使用一个三角形获得完整的边框,至少不是我们编写边框着色器的方式。
添加一个构造函数,以及一个allocateBuffers辅助程序:
public Triangle(){
super();
allocateBuffers();
}
public static void allocateBuffers(){
//Already allocated?
if (vertexBuffer != null) return;
vertexBuffer = allocateFloatBuffer(COORDS);
texCoordBuffer = allocateFloatBuffer(TEX_COORDS);
colorBuffer = allocateFloatBuffer(COLORS);
normalBuffer = allocateFloatBuffer(NORMALS);
indexBuffer = allocateShortBuffer(INDICES);
}
我们可以创建各种材料,但我们实际上只计划使用BorderMaterial,因此让我们像我们在Plane中那样支持它:
public void setupBorderMaterial(BorderMaterial material){
this.material = material;
material.setBuffers(vertexBuffer, texCoordBuffer, indexBuffer, numIndices);
}
向 UI 添加三角形
在MainActivity中,我们可以添加up和down三角形按钮来滚动缩略图。在MainActivity类的顶部,声明三角形及其材料的变量:
Triangle up, down;
BorderMaterial upMaterial, downMaterial;
boolean upSelected, downSelected;
定义一个setupScrollButtons辅助程序如下:
void setupScrollButtons() {
up = new Triangle();
upMaterial = new BorderMaterial();
up.setupBorderMaterial(upMaterial);
new Transform()
.setLocalPosition(0,6,-5)
.addComponent(up);
down = new Triangle();
downMaterial = new BorderMaterial();
down.setupBorderMaterial(downMaterial);
new Transform()
.setLocalPosition(0,-6,-5)
.setLocalRotation(0,0,180)
.addComponent(down);
}
然后,从setup方法中调用它:
public void setup() {
setupMaxTextureSize();
setupBackground();
setupScreen();
loadImageList(imagesPath);
setupThumbnailGrid();
setupScrollButtons();
updateThumbnails();
}
运行项目时,您将看到箭头:
与滚动按钮交互
现在,我们将检测用户何时在查看三角形,使用selectObject中的isLooking(从postDraw挂钩调用):
void selectObject() {
...
if (up.isLooking) {
upSelected = true;
upMaterial.borderColor = selectedColor;
} else {
upSelected = false;
upMaterial.borderColor = normalColor;
}
if (down.isLooking) {
downSelected = true;
downMaterial.borderColor = selectedColor;
} else {
downSelected = false;
downMaterial.borderColor = normalColor;
}
}
实现滚动方法
为了实现滚动缩略图图像,我们将保持网格平面不变,只滚动纹理。使用偏移变量来保存网格中第一个图像的索引:
static int thumbOffset = 0;
现在,修改updateThumbnails方法,使用缩略图偏移作为图像纹理的起始索引来填充平面纹理:
void updateThumbnails() {
int count = thumbOffset;
for (Thumbnail thumb : thumbnails) {
. . .
当按下上下箭头时,我们可以在onCardboardTrigger中执行滚动,通过将thumbOffset变量一次移动一行(GRID_X):
public void onCardboardTrigger() {
if (selectedThumbnail != null) {
vibrator.vibrate(25);
showImage(selectedThumbnail.image);
}
if (upSelected) {
// scroll up
thumbOffset -= GRID_X;
if (thumbOffset < 0) {
thumbOffset = images.size() - GRID_X;
}
vibrator.vibrate(25);
updateThumbnails();
}
if (downSelected) {
// scroll down
if (thumbOffset < images.size()) {
thumbOffset += GRID_X;
} else {
thumbOffset = 0;
}
vibrator.vibrate(25);
updateThumbnails();
}
}
与showImage一样,updateThumbnails方法需要在渲染线程上运行:
void updateThumbnails() {
cardboardView.queueEvent(new Runnable() {
@Override
public void run() {
...
运行项目。现在,您可以单击上下箭头来滚动浏览照片。
保持响应并使用线程
我们的加载和滚动代码存在一些问题,都与加载图像和转换位图是计算密集型的事实有关。尝试一次为 15 张图像执行此操作会导致应用程序似乎冻结。您可能还注意到,自从我们添加了缩略图网格以来,应用程序启动时间显着延长。
在传统的应用程序中,应用程序在等待数据加载时锁定可能会很烦人,但在 VR 中,应用程序需要保持活动状态。应用程序需要继续响应头部运动,并为每个帧更新显示,以显示与当前视图方向相对应的视图。如果应用程序在加载文件时被锁定,它会感觉卡住,即卡在您的脸上!在完全沉浸式体验中,并且在桌面 HMD 上,视觉锁定是引起恶心或模拟疾病的最严重原因。
解决方案是一个工作线程。成功支持多线程的关键是提供过程之间使用信号量(布尔标志)相互通信的能力。我们将使用以下内容:
-
Image.loadLock:当等待 GPU 生成纹理时为真 -
MainActivity.cancelUpdate:当线程由于用户事件而停止时为真 -
MainActivity gridUpdateLock:当网格正在更新时为真;忽略其他用户事件
让我们声明这些。在Image类的顶部,添加以下代码:
public static boolean loadLock = false;
在MainActivity类的顶部,添加以下内容:
public static boolean cancelUpdate = false;
static boolean gridUpdateLock = false;
首先,让我们确定我们代码中计算密集的部分。随意进行自己的调查,但让我们假设BitmapFactory.decodeFile是罪魁祸首。理想情况下,任何与渲染无关的代码都应该在工作线程上完成,但要注意预优化。我们正在做这项工作是因为我们注意到了一个问题,所以我们应该能够确定导致问题的新代码。一个合理的猜测指向了将任意图像加载到纹理中的这个业务。
我们在哪里进行这个操作?嗯,对BitmapFactory.decodeFile的实际调用来自Image.loadTexture,但更一般地说,所有这些都是从MainActivity.updateGridTextures和MainActivity.showImage中启动的。现在让我们更新这最后两个函数。
幸运的是,showImage已经被包装在Runnable中,以便将其执行重定向到渲染线程。现在我们想确保它总是发生在渲染线程之外。我们将在不同的地方使用queueEvent来避免我们之前遇到的错误。我们用Thread替换了以前的Runnable代码。例如,showImage现在看起来是这样的:
void showImage(final Image image) {
new Thread() {
@Override
public void run() {
UnlitTexMaterial bgMaterial = (UnlitTexMaterial) photosphere.getMaterial();
...
}
}.start();
}
对updateThumbnails做同样的操作。当我们在这里时,添加gridUpdateLock标志,它在运行时保持设置,并处理cancelUpdate标志,以便可以中断循环:
void updateThumbnails() {
gridUpdateLock = true;
new Thread() {
@Override
public void run() {
int count = thumbOffset;
for (Thumbnail thumb : thumbnails) {
if (cancelUpdate)
return;
if (count < images.size()) {
thumb.setImage(images.get(count));
thumb.setVisible(true);
} else {
thumb.setVisible(false);
}
count++;
}
cancelUpdate = false;
gridUpdateLock = false;
}
}.start();
}
专注于Image类的loadTexture方法,我们需要使用queueEvent将 GPU 调用重定向回渲染线程。如果你现在尝试运行应用程序,它将立即崩溃。这是因为showImage现在总是在自己的线程中运行,当我们最终进行 OpenGL 调用生成纹理时,我们将得到无效操作错误,就像我们之前添加触发输入时那样。为了解决这个问题,修改loadTexture如下:
public void loadTexture(CardboardView cardboardView, int sampleSize) {
if (textureHandle != 0)
return;
BitmapFactory.Options options = new BitmapFactory.Options();
options.inSampleSize = sampleSize;
final Bitmap bitmap = BitmapFactory.decodeFile(path, options);
if(bitmap == null){
throw new RuntimeException("Error loading bitmap.");
}
width = options.outWidth;
height = options.outHeight;
loadLock = true;
cardboardView.queueEvent(new Runnable() {
@Override
public void run() {
if (MainActivity.cancelUpdate)
return;
textureHandle = bitmapToTexture(bitmap);
bitmap.recycle();
loadLock = false;
}
}
});
while (loadLock){
try {
Thread.sleep(100);
} catch (InterruptedException e) {
e.printStackTrace();
}
}
}
我们改变了bitmapToTexture,现在它在 GPU 线程上调用。我们使用loadLock标志来指示加载正在忙碌。当它完成时,标志被重置。与此同时,loadTexture在返回之前等待它完成,因为我们需要这个textureHandle值以供以后使用。但由于我们总是从工作线程调用这个,应用程序不会因等待而挂起。这个改变也将改善启动时间。
同样,我们在Thumbnail类中也做同样的事情;它的setImage方法也加载图像纹理。修改它,使它看起来像这样:
public void setImage(Image image) {
this.image = image;
// Turn the image into a GPU texture
image.loadTexture(cardboardView, 4);
// wait until texture binding is done
try {
while (Image.loadLock) {
if (MainActivity.cancelUpdate)
return;
Thread.sleep(10);
}
} catch (InterruptedException e) {
e.printStackTrace();
}
// show it
. . .
}
你可能已经注意到了所有这些中更微妙的问题。如果我们试图在这些工作线程操作的中间关闭应用程序,它将崩溃。潜在的问题是线程持续存在,但图形上下文已被销毁,即使你只是切换应用程序。尝试使用无效的图形上下文生成纹理会导致崩溃,并且用户几乎得不到通知。坏消息。我们想要做的是在应用程序关闭时停止工作线程。这就是cancelUpdate发挥作用的地方。在MainActivity中,我们将在onCreate方法中设置它的值,并在onStart、onResume和onPause挂钩方法中添加方法,如下所示:
@Override
protected void onCreate(Bundle savedInstanceState) {
cancelUpdate = false;
//...
}
@Override
protected void onStart(){
super.onStart();
cancelUpdate = true;
}
@Override
protected void onResume(){
super.onResume();
cancelUpdate = false;
}
@Override
protected void onPause(){
super.onPause();
cancelUpdate = true;
}
如果你在网格更新时尝试点击某物,它不应该让你这样做。在onCardboardTrigger的顶部添加以下代码:
if (gridUpdateLock) {
vibrator.vibrate(new long[]{0,50,30,50}, -1);
return;
}
这个新的long[]{0,50,30,50}业务是将一个序列编程到振动器中的一种方式。在这种情况下,连续使用两个短(50 毫秒)的脉冲来指示 nuh-uh 反应。
我们甚至可以再进一步,就像这样在gridUpdateLock期间用禁用的颜色突出显示可选择的对象:
if (plane.isLooking) {
selectedThumbnail = thumb;
if(gridUpdateLock)
material.borderColor = invalidColor;
else
material.borderColor = selectedColor;
...
你的项目应该像以前一样运行。但现在它更具响应性,行为更好,并且不会因等待图像加载而卡住。
线程和虚拟现实的解释
OpenGL 不是线程安全的。这听起来像是一个设计缺陷。实际上,更像是一个设计要求。您希望您的图形 API 尽可能快地频繁绘制帧。正如您可能知道的,或者很快就会了解到,等待是线程经常做的事情。如果您引入多线程访问图形硬件,您就会引入硬件可能在 CPU 上等待的时期,仅仅是为了弄清楚它的线程调度和谁需要在那个时候访问。说“只有一个线程可以访问 GPU”更简单更快。从技术上讲,随着图形 API 变得更加先进(DirectX 12 和 Vulkan),这并不严格正确,但我们不会在本书中涉及多线程渲染。
让我们先退一步,问一个问题,“为什么我们需要使用线程?”对于一些经验丰富的应用程序开发人员来说,答案应该是显而易见的。但并非所有程序员都需要使用线程,更糟糕的是,许多程序员在不适当的时候或者根本不需要的时候使用线程。对于那些仍然不清楚的人来说,线程是一个“同时运行两个程序的方法”的花哨术语。在实际层面上,操作系统控制着调度线程一个接一个地运行,或者在不同的 CPU 核心上运行,但作为程序员,我们假设所有线程都在“同时”运行。
顺便说一句,虽然我们只允许一个 CPU 线程控制 GPU,但 GPU 的整个意义在于它是大规模多线程的。移动 GPU 仍在发展中,但高端的 Tegra 芯片拥有数百个核心(目前,X1 拥有 256 个核心),落后于拥有数千个核心的台式机等效芯片(Titan Black @ 2880 个核心)。GPU 被设置为在单独的线程上处理每个像素(或其他类似的小数据),并且有一些硬件魔术自动调度所有这些线程而零开销。把您的渲染线程想象成一个缓慢的工头,指挥着一支小型的 CPU 军队来执行您的命令并报告结果,或者在大多数情况下,直接将它们绘制到屏幕上。这意味着 CPU 已经在代表 GPU 做了相当多的等待,从而使您的其他工作线程可以在需要更多 CPU 渲染工作时进行任务并等待。
当您想要运行一个需要一段时间的进程,并且希望避免阻塞程序的执行或主线程时,线程通常是有用的。这种情况最常见的地方是启动一个后台进程并允许 UI 继续更新。如果您正在创建一个媒体编码器程序,您不希望在解码视频时程序在 30 分钟内无响应。相反,您希望程序正常运行,允许用户点击按钮并从后台工作中看到进度更新。在这种情况下,您必须让 UI 和后台线程偶尔休息一下,以便发送和检查两者之间传递的消息。调整休息时间或睡眠时间以及线程优先级值可以避免一个线程占用太多 CPU 时间。
回到 OpenGL 和图形编程。在游戏引擎中,将工作分成几个不同的线程(渲染、物理、音频、输入等)是很常见的。然而,渲染线程总是一种“指挥者”,因为渲染仍然倾向于是最时间敏感的工作,必须至少每秒发生 30 次。在虚拟现实中,这种约束更加重要。也许我们不担心物理和音频,但我们仍然需要确保我们的渲染器能够尽快地绘制东西,否则就会失去存在感。此外,只要人在看屏幕,我们就永远不能停止渲染。我们需要线程来避免渲染帧之间出现“抽搐”或不可接受的长时间间隔。
头部跟踪对于 VR 体验至关重要。一个人移动头部,只看着一个固定的图像,会开始感到恶心,或者模拟病。即使是黑色背景上的一些文本,如果没有通过某种固定的地平线进行补偿,最终也会引起不适。有时,我们确实需要阻塞渲染线程相当长的时间,最好的选择是首先将图像淡化为纯色或空白。这样可以在短时间内感到舒适。在 VR 中最糟糕的事情是由于渲染线程上的大量工作而导致周期性的抽搐或帧速率下降。如果您不能保持恒定、平稳的帧速率,您的 VR 体验就毫无价值。
在我们的情况下,我们需要解码一系列相当大的位图并将它们加载到 GPU 纹理中。不幸的是,解码步骤需要几百毫秒,并导致我们刚刚谈到的这些抽搐。然而,由于这不是 GPU 工作,它不必发生在渲染线程上!如果我们想要避免在我们的setup(),preDraw()和postDraw()函数中进行任何繁重的工作,我们应该在任何想要解码位图的时候创建一个线程。在更新我们的预览网格的情况下,我们可能只需要创建一个单独的线程,它可以运行整个更新过程,在每个位图之间等待。在 CPU 领域,操作系统需要使用一些资源来调度线程并分配它们的资源。与为每个位图启动和关闭线程相比,只创建一个线程来完成整个作业要高效得多。
当然,我们需要利用我们的老朋友queueEvent来进行任何图形工作,这样才能生成和加载纹理。事实证明,更新图像的显示并不是图形工作,因为它只涉及更改我们材质上的一个值。然而,我们确实需要等待图形工作,以获取这个新值。由于这些优化和约束,我们需要一个锁定系统,以允许一个线程等待其他线程完成其工作,并防止用户在完成之前中断或重新启动此过程。这就是我们在上一个主题中刚刚实现的。
使用意图启动
如果您可以在手机上查看图像时随时启动此应用程序,这不是很酷吗,尤其是 360 度全景照片?
Android 操作系统的一个更强大的功能是使用意图在应用程序之间进行通信。意图是任何应用程序可以发送到 Android 系统的消息,它声明了使用另一个应用程序进行某种目的的意图。意图对象包含许多成员,用于描述需要执行的操作类型,以及(如果有的话)需要执行操作的数据。作为用户,您可能熟悉默认操作选择器,它显示了许多应用程序图标以及仅此一次或始终的选择。您看到的是您刚刚使用的应用程序向系统广播新意图的结果。当您选择一个应用程序时,Android 会从该应用程序启动一个新的活动,该活动已注册以响应该类型的意图。
在您的AndroidManifest.xml文件中,向活动块添加一个意图过滤器。让 Android 知道该应用程序可以用作图像查看器。添加以下 XML 代码:
<intent-filter>
<action android:name="android.intent.action.VIEW" />
<category android:name="android.intent.category.DEFAULT" />
<data android:mimeType="image/*" />
</intent-filter>
我们只需要处理这样一种情况,即当应用程序启动时,意图图像是默认加载的图像。在MainActivity中,我们将编写一个显示图像的新函数,如下所示。该方法获取 URI 路径并将其转换为文件路径名,调用该路径上的新Image对象,然后调用showImage方法。(有关参考,请访问developer.android.com/guide/topics/providers/content-provider-basics.html):
void showUriImage(final Uri uri) {
Log.d(TAG, "intent data " + uri.getPath());
File file = new File(uri.getPath());
if(file.exists()){
Image img = new Image(uri.getPath());
showImage(img);
} else {
String[] filePathColumn = {MediaStore.Images.Media.DATA};
Cursor cursor = getContentResolver().query(uri, filePathColumn, null, null, null);
if (cursor == null)
return;
if (cursor.moveToFirst()) {
int columnIndex = cursor.getColumnIndex(filePathColumn[0]);
String yourRealPath = cursor.getString(columnIndex);
Image img = new Image(yourRealPath);
showImage(img);
}
// else report image not found error?
cursor.close();
}
然后,在setup中添加对showUriImage的调用,如下所示:
public void setup() {
BorderMaterial.destroy();
setupMaxTextureSize();
setupBackground();
setupScreen();
loadImageList(imagesPath);
setupThumbnailGrid();
setupScrollButtons();
Uri intentUri = getIntent().getData();
if (intentUri != null) {
showUriImage(intentUri);
}
updateThumbnails();
}
我们还添加了对BorderMaterial.destroy()的调用,因为意图会启动活动的第二个实例。如果我们不销毁材料,新的活动实例,它有自己的图形上下文,将在尝试使用在第一个活动的图形上下文上编译的着色器时抛出错误。
现在,项目已经构建并安装到手机上,当您选择一个图像文件时,例如,从文件夹浏览器应用程序(例如我的文件(三星))中,您将得到一个选择使用意图查看图像的应用程序的选项。您的 Gallery360 应用程序(或者您实际上命名的任何应用程序)将是其中的一个选择,如下面的屏幕截图所示。选择它,它将以该图像文件视图作为默认视图启动。
使用倾斜向上手势显示/隐藏网格
在 Cardboard 的早期,您只有一个按钮。就是这样。按钮和头部跟踪是用户与应用程序交互的唯一方式。而且因为按钮是一个巧妙的磁铁东西,你甚至不能按住这个按钮。有了 Cardboard 2.0,屏幕变成了按钮,我们还意识到我们可以短暂地把盒子从脸上拿下来,把手机向上倾斜,然后把它放回去,并将其解释为手势。因此,第二个输入诞生了!在撰写本文时,示例 Cardboard 应用程序将其用作返回手势。
我们将使用倾斜向上来显示和隐藏网格和箭头,以便您可以完全沉浸在所选的全景照片中。由于这样做的工作量较小,我们还允许用户随时执行此操作,而不仅仅是在查看全景照片时。与振动反馈一样,这实际上是一个相当轻松的功能。大部分的工作都是由OrientationEventListener类完成的。
在MainActivity类的顶部,添加一个变量来表示网格的状态,方向事件监听器,以及倾斜检测计时器,如下所示:
static boolean setupComplete = false;
boolean interfaceVisible = true;
OrientationEventListener orientationEventListener;
int orientThreshold = 10;
boolean orientFlip = false;
long tiltTime;
int tiltDamper = 250;
首先,我们可以编写一个方法来切换缩略图网格菜单的开/关。检查是否有比平面更少的图像,因为空的图像已经在updateThumbnails中被禁用:
void toggleGridMenu() {
interfaceVisible = !interfaceVisible;
if (up != null)
up.enabled = !up.enabled;
if (down != null)
down.enabled = !down.enabled;
int texCount = thumbOffset;
for (Thumbnail thumb : thumbnails) {
if (texCount < images.size() && thumb != null) {
thumb.setVisible(interfaceVisible);
}
texCount++;
}
}
接下来,编写一个setupOrientationListener辅助方法,当设备方向发生变化时提供回调函数。如果方向接近垂直,我们可以调用我们的切换函数,一旦设备返回横向并再次垂直,我们再次切换:
void setupOrientationListener() {
orientationEventListener = new OrientationEventListener(this, SensorManager.SENSOR_DELAY_NORMAL) {
@Override
public void onOrientationChanged(int orientation) {
if(gridUpdateLock || !setupComplete)
return;
if(System.currentTimeMillis() - tiltTime > tiltDamper) {
if(Math.abs(orientation) < orientThreshold || Math.abs(orientation - 180) < orientThreshold){ //"close enough" to portrait mode
if(!orientFlip) {
Log.d(TAG, "tilt up! " + orientation);
vibrator.vibrate(25);
toggleGridMenu();
}
orientFlip = true;
}
if(Math.abs(orientation - 90) < orientThreshold || Math.abs(orientation - 270) < orientThreshold) { //"close enough" to landscape mode
orientFlip = false;
}
tiltTime = System.currentTimeMillis();
}
}
};
if(orientationEventListener.canDetectOrientation())
orientationEventListener.enable();
}
然后,将其添加到onCreate中:
protected void onCreate(Bundle savedInstanceState) {
...
setupOrientationListener();
}
setupComplete标志防止在网格仍在创建时切换网格。让我们在updateThumbnails之后重置完成标志:
void updateThumbnails() {
. . .
cancelUpdate = false;
gridUpdateLock = false;
setupComplete = true;
在onDestroy中销毁它是明智的:
@Override
protected void onDestroy(){
super.onDestroy();
orientationEventListener.disable();
}
onOrientationChanged回调将在手机改变方向时触发。我们只对从横向到纵向的变化感兴趣,并且我们也希望确保它不会发生太频繁,因此有了倾斜阻尼器功能。您可能希望调整值(目前为 250 毫秒)以满足您的喜好。时间太短,可能会错误地注册两次变化。时间太长,用户可能会在截止时间内尝试两次倾斜。
球形缩略图
球形 360 度图像应该比普通的缩略图图像更好,不是吗?我建议我们将它们显示为小球。也许我们应该称它们为拇指尖或拇指弹珠。无论如何,让我们做一些小小的修改来实现这一点。
在Thumbnail类中添加一个球体
在Thumbnail类中,添加一个sphere变量:
public Sphere sphere;
修改setImage以识别全景图像:
public void setImage(Image image) {
// ...
// show it
if (image.isPhotosphere) {
UnlitTexMaterial material = (UnlitTexMaterial) sphere.getMaterial();
material.setTexture(image.textureHandle);
} else {
image.showThumbnail(cardboardView, plane);
}
}
我们还必须更改setVisible以处理plane和sphere变量,如下所示:
public void setVisible(boolean visible) {
if(visible) {
if(image.isPhotosphere){
plane.enabled = false;
sphere.enabled = true;
} else{
plane.enabled = true;
sphere.enabled = false;
}
} else {
plane.enabled = false;
sphere.enabled = false;
}
}
接下来,在MainActivity类的setupThumbnailGrid中,除了Plane对象之外,还初始化一个Sphere对象(在GRID_Y和GRID_X循环内):
. . .
image.addComponent(imgPlane);
Transform sphere = new Transform();
sphere.setLocalPosition(-4 + j * 2.1f, 3 - i * 3, -5);
sphere.setLocalRotation(180, 0, 0);
sphere.setLocalScale(normalScale, normalScale, normalScale);
Sphere imgSphere = new Sphere(R.drawable.bg, false);
thumb.sphere = imgSphere;
imgSphere.enabled = false;
sphere.addComponent(imgSphere);
现在,缩略图既有一个平面又有一个球体,我们可以根据图像类型进行填充。
最后,我们只需要修改selectObject方法,看看我们如何突出显示一个球体缩略图。我们通过改变边框颜色来突出显示矩形的缩略图。我们的球体没有边框;因此我们将改变它们的大小。
在MainActivity的顶部,添加变量到正常和选定的比例:
final float selectedScale = 1.25f;
final float normalScale = 0.85f;
现在,当图像是全景照片时,将selectObject更改为以不同的方式行事:
void selectObject() {
float deltaTime = Time.getDeltaTime();
selectedThumbnail = null;
for (Thumbnail thumb : thumbnails) {
if (thumb.image == null)
return;
if(thumb.image.isPhotosphere) {
Sphere sphere = thumb.sphere;
if (sphere.isLooking) {
selectedThumbnail = thumb;
if (!gridUpdateLock)
sphere.transform.setLocalScale(selectedScale, selectedScale, selectedScale);
} else {
sphere.transform.setLocalScale(normalScale, normalScale, normalScale);
}
sphere.transform.rotate(0, 10 * deltaTime, 0);
} else {
Plane plane = thumb.plane;
//...
}
}
//. . .
哇哦!我们甚至让球体旋转,这样你就可以看到它 360 度的全部荣耀!这太有趣了,简直应该是非法的。
就是这样!一个美丽的照片查看器应用程序,支持常规相机图像和 360 度全景照片。
更新 RenderBox 库
Gallery360 项目已经实施并且我们的代码已经稳定,你可能会意识到我们构建了一些不一定特定于这个应用程序的代码,可以在其他项目中重复使用,并且应该回到RenderBox库中。
我们在上一个项目的最后在第六章中完成了这个。你可以参考那个主题了解详情。按照以下步骤更新RenderBoxLib项目:
-
从
RenderBoxExt/components移动Plane和Triangle组件。 -
从
RenderBoxExt/materials移动BorderMaterial组件。 -
从
res/raw移动边框着色器文件。 -
修复任何无效引用以正确的包名称。
-
通过点击Build | Make Project来重建库。
进一步的可能增强
哇,这是很多工作!这个东西肯定完成了,不是吗?*永远不是!*这里有一些改进,迫切需要实施:
-
更好地检测手机图片:
-
并不是每个人都把他们的所有图像保存在特定的路径中。事实上,一些相机软件使用完全不同的路径!引入一个合适的文件浏览器。
-
更好地检测全景图像:
-
在 XMP 头文件中有一个
Projection Type属性,这是一些 JPG 文件中的另一个元数据。不幸的是,Android API 没有一个特定的类来读取这些数据,集成第三方库超出了这个项目的范围。可以尝试以下链接:
github.com/dragon66/pixymeta-android
github.com/drewnoakes/metadata-extractor
不要使用全景技术,因为它会捕捉到常规全景照片。允许用户标记或修复显示不正确的全景照片或旋转元数据的图像。
-
动画 UI 操作-选择时的缩放/平移,平滑网格滚动。
-
一个很棒的技术,可以防止网格瓦片出现在上/下箭头的后面,称为深度遮罩。你也可以在世界空间中引入最大和最小的 Y 值,超出这些值的瓦片将无法绘制。但深度遮罩更酷。
-
响应
GALLERY意图,用来覆盖网格并从另一个应用程序中选择图像。 -
在
VIEW意图中接受来自网络的图像 URL。 -
你需要首先下载图像,然后从下载路径加载它。
总结
我希望你和我一样对我们在这里取得的成就感到兴奋!我们构建了一个真正实用的 Cardboard VR 应用程序,用于查看常规照片和 360 度全景照片的画廊。该项目使用了RenderBox库,如第五章中所讨论的,RenderBox Engine。
首先,我们演示了全景照片的工作原理,并使用RenderBox库在 Cardboard 上查看了一个,而没有进行任何自定义更改。然后,为了查看常规照片,我们创建了一个Plane组件,用作虚拟投影屏幕。我们编写了新的材料和着色器来渲染带有边框的图像。
接下来,我们定义了一个新的Image类,并从手机的相机文件夹中加载图像到列表中,并编写了一个方法来在屏幕上显示图像Plane,纠正其方向和纵横比。然后,我们构建了一个用户界面,显示了缩略图图像的网格,并允许您通过凝视并点击 Cardboard 触发器来选择其中一个图像进行显示。该网格是可滚动的,这要求我们添加线程,以便在加载文件时应用程序不会出现锁定。最后,我们添加了一些功能来启动带有图像查看意图的应用程序,通过将手机垂直倾斜来切换菜单网格,并为全景照片添加了球形缩略图。
在下一章中,我们将构建另一种类型的查看器;这次是为了查看 OBJ 文件中的完整 3D 模型。