Android
模拟器 29.0.6(2019 年 5 月 1 日)
版本开始在Android Q测试版3
中引入了对于 Vulkan
的支持,因此已经可以在模拟器上调试 Vulkan
代码了。
pytorch 1.0.1在ubuntu 18.04(GeForce GTX 760)编译(CUDA-10.1)
目前 ubuntu 18.04
上使用 sudo apt-get install nvidia-cuda-toolkit
安装的是 9.1.85
版本的 nvidia cuda
, 尽管版本比较老,但是好在稳定性好,适用范围广。
当我们的项目需要使用指定版本的 pytorch
的时候,目前官方提供的编译好的 nvidia cuda
安装包并不兼容全部的硬件。这个在实际环境中是比较麻烦的。
目前来说,比较稳妥的办法是直接从源代码编译。
如果显卡是几年前的显卡(GeForce GTX 760 Compute Capability = 3.0 / GeForce GT 720M Lenveo Thinkpad T440 Compute Capability = 2.1),运行的时候会提示:
1 2 3 |
Found GPU0 GeForce GTX 760 which is of cuda capability 3.0. PyTorch no longer supports this GPU because it is too old. The minimum cuda capability that we support is 3.5. |
执行的时候会报错
1 |
RuntimeError: cuda runtime error (48) : no kernel image is available for execution on the device |
硬件的计算能力查询 Recommended GPU for Developers
------------------------------------------------------------------------------------
安装最新版本的 cuda-10.1
,低版本的编译会出问题:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 |
# 卸载之前已经安装的cuda $ sudo apt-get remove nvidia-cuda-toolkit $ wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu1804/x86_64/cuda-ubuntu1804.pin $ sudo mv cuda-ubuntu1804.pin /etc/apt/preferences.d/cuda-repository-pin-600 $ wget http://developer.download.nvidia.com/compute/cuda/10.1/Prod/local_installers/cuda-repo-ubuntu1804-10-1-local-10.1.243-418.87.00_1.0-1_amd64.deb $ sudo dpkg -i cuda-repo-ubuntu1804-10-1-local-10.1.243-418.87.00_1.0-1_amd64.deb $ sudo apt-key add /var/cuda-repo-10-1-local-10.1.243-418.87.00/7fa2af80.pub $ sudo apt-get update $ sudo apt-get -y install cuda # 部分驱动可能会更新,需要执行更新,否则可能依旧不正常 $ sudo apt-get dist-upgrade $ sudo apt-get autoremove # 可能需要删除一下XWindow的配置文件,否则驱动可能不能正常加载 $ sudo rm -rf ~/.Xauthority # 如果出现如下错误 # ubuntu 18.04 "nvidia-340 导致 /usr/lib/x86_64-linux-gnu/libGL.so.1 # 转移到 /usr/lib/x86_64-linux-gnu/libGL.so.1.distrib" # 参考 http://www.mobibrw.com/?p=21739 # 删除安装源,可以节约几个GB的磁盘,安装完成后这部分已经用不上了 $ sudo apt-get remove --purge cuda-repo-ubuntu1804-10-1-local-10.1.243-418.87.00 $ sudo apt-get update # 部分驱动可能会更新,需要执行更新,否则可能依旧不正常 $ sudo apt-get dist-upgrade $ sudo apt-get autoremove |
安装 cuDNN
去官网下载对应版本的 cuDNN
一共是三个安装包,逐个安装即可。
Lenveo T440 Compute Capability = 2.1 不支持 cuDNN
,因此没必要安装 , 其实连最新版本的 CUDA-10.1
也不能安装,原因在于 NVIDIA GT 720M
的驱动只支持到 390
版本,而 CUDA-10.1
需 418
以上的版本才能支持,具体表现在于系统启动后没有加载显卡驱动,dmesg
可以查看到如下信息:
1 2 3 4 5 6 |
[ 72.533870] NVRM: The NVIDIA GeForce GT 720M GPU installed in this system is NVRM: supported through the NVIDIA 390.xx Legacy drivers. Please NVRM: visit http://www.nvidia.com/object/unix.html for more NVRM: information. The 430.50 NVIDIA driver will ignore NVRM: this GPU. Continuing probe... [ 72.533875] NVRM: No NVIDIA graphics adapter found! |
------------------------------------------------------------------------------------
依旧是推荐在 Anaconda 上建立独立的编译环境,然后执行编译:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 |
$ sudo apt-get install git # conda remove -n pytorch --all $ conda create -n pytorch -y python=3.6.8 pip $ source activate pytorch $ conda install numpy pyyaml mkl=2019.1 mkl-include=2019.1 setuptools cmake cffi typing pybind11 $ conda install ninja # magma-cuda90 magma-cuda91 magma-cuda92 会编译失败 $ conda install -c pytorch magma-cuda101 $ git clone https://github.com/pytorch/pytorch $ cd pytorch # pytorch 1.0.1 版本支持“Compute Capability” 低于3.0版本的硬件,pytorch 1.2.0需要至少3.5版本的硬件才可以正常运行 # https://github.com/pytorch/pytorch/blob/v1.3.0/torch/utils/cpp_extension.py $ git checkout v1.0.1 -b v1.0.1 $ git submodule sync $ git submodule update --init --recursive $ export CMAKE_PREFIX_PATH=${CONDA_PREFIX:-"$(dirname $(which conda))/../"} # 如果不需要使用cuda的话,这里还要加上一句:export NO_CUDA=1 $ python setup.py clean # 卸载以前安装的pytorch $ conda uninstall pytorch # 从Nvidia开发网站查询到自己硬件对应的“Compute Capability” # 比如 “GeForce GTX 760” 对应 “3.0” 计算能力,能力不正确会导致运行异常 # RuntimeError: cuda runtime error (48) : no kernel image is available for execution on the device $ python setup.py install # 对于开发者模式,可以使用 # python setup.py build develop # 一定要退出 pytorch 的编译目录,在pytorch代码目录下执行命令会出现异常 $ cd .. |
如果出现如下错误:
1 2 3 4 5 |
[ 68%] Building NVCC (Device) object caffe2/CMakeFiles/caffe2_gpu.dir/__/aten/src/ATen/native/sparse/cuda/caffe2_gpu_generated_SparseCUDABlas.cu.o ~/pytorch/aten/src/ATen/native/sparse/cuda/SparseCUDABlas.cu(58): error: more than one instance of function "at::native::sparse::cuda::cusparseGetErrorString" matches the argument list: function "cusparseGetErrorString(cusparseStatus_t)" function "at::native::sparse::cuda::cusparseGetErrorString(cusparseStatus_t)" argument types are: (cusparseStatus_t) |
则需要调整代码 aten/src/ATen/native/sparse/cuda/SparseCUDABlas.cu
, 在其中的 cusparseGetErrorString
函数上增加 #if (!((CUSPARSE_VER_MAJOR >= 10) && (CUSPARSE_VER_MINOR >= 2)))
如下:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 |
#if (!((CUSPARSE_VER_MAJOR >= 10) && (CUSPARSE_VER_MINOR >= 2))) const char* cusparseGetErrorString(cusparseStatus_t status) { switch(status) { case CUSPARSE_STATUS_SUCCESS: return "success"; case CUSPARSE_STATUS_NOT_INITIALIZED: return "library not initialized"; case CUSPARSE_STATUS_ALLOC_FAILED: return "resource allocation failed"; case CUSPARSE_STATUS_INVALID_VALUE: return "an invalid numeric value was used as an argument"; case CUSPARSE_STATUS_ARCH_MISMATCH: return "an absent device architectural feature is required"; case CUSPARSE_STATUS_MAPPING_ERROR: return "an access to GPU memory space failed"; case CUSPARSE_STATUS_EXECUTION_FAILED: return "the GPU program failed to execute"; case CUSPARSE_STATUS_INTERNAL_ERROR: return "an internal operation failed"; case CUSPARSE_STATUS_MATRIX_TYPE_NOT_SUPPORTED: return "the matrix type is not supported by this function"; case CUSPARSE_STATUS_ZERO_PIVOT: return "an entry of the matrix is either structural zero or numerical zero (singular block)"; default: return "unknown error"; } } #endif |
这样解决跟 CUDA-10.1
自带函数的冲突问题。
具体参考: https://github.com/pytorch/pytorch/blob/master/aten/src/ATen/native/sparse/cuda/SparseCUDABlas.cu
源码安装的Pytorch,卸载需要执行:
1 2 3 4 5 |
# conda uninstall pytorch $ pip uninstall torch $ python setup.py clean |
Pytorch 代码下载非常缓慢,可以本站下载同步好的pytorch源代码。
参考链接
- pytorch 1.3 ubuntu 18.04 编译
- Pytorch 在 Ubuntu18.04 上的编译、安装、与问题
- Ubuntu 18.04 下搭建 C/C++编译开发环境及GCC多版本切换
- PyTorch no longer supports this GPU because it is too old.
- Cuda runtime error (48) : no kernel image is available for execution
- pytorch查看CUDA支持情况,只需要三行代码,另附Cuda runtime error (48) : no kernel image is available for execution处理办法
- CUDA计算能力的含义
- Recommended GPU for Developers
- undefined reference to 'cudaSetupArgument', 'cudaLaunch'
- NVIDIA driver problems on laptop (after botched CUDA installation attempt)
- WHAT'S A LEGACY DRIVER?
- nvidia geforce gt 720m could not find compatible graphics hardware.
- Replace deprecated CUDA APIs
- ../libATen.so.1: undefined reference to `cublasGemmStridedBatchedEx' #5631
- Error using __ldg in cuda kernel at compile time
- 源码编译pytorch 1.0 遇到的问题
Anaconda conda切换为国内源
- Windows下
1 添加清华源
命令行中直接使用以下命令
1 2 3 4 5 6 7 8 9 |
$ conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/ $ conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main/ # pytorch $ conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/pytorch/ # 设置搜索时显示通道地址 $ conda config --set show_channel_urls yes |
2 添加中科大源
1 2 3 4 5 6 7 8 9 10 11 12 13 |
$ conda config --add channels https://mirrors.ustc.edu.cn/anaconda/pkgs/main/ $ conda config --add channels https://mirrors.ustc.edu.cn/anaconda/pkgs/free/ $ conda config --add channels https://mirrors.ustc.edu.cn/anaconda/cloud/conda-forge/ $ conda config --add channels https://mirrors.ustc.edu.cn/anaconda/cloud/msys2/ $ conda config --add channels https://mirrors.ustc.edu.cn/anaconda/cloud/bioconda/ $ conda config --add channels https://mirrors.ustc.edu.cn/anaconda/cloud/menpo/ $ conda config --set show_channel_urls yes |
- Linux下
将以上配置文件写在~/.condarc
中
1 |
$ vim ~/.condarc |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 |
channels: - defaults show_channel_urls: true default_channels: - https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main - https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free - https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/r custom_channels: conda-forge: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud msys2: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud bioconda: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud menpo: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud pytorch: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud simpleitk: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud |
切记
在修改完成之后,一定要重新启动一个新的Shell
, 否则设置不生效。
参考链接
PyTorch运行时提示'ImportError: torch.utils.ffi is deprecated. Please use cpp extensions instead.'
1 2 3 4 5 6 7 8 |
(FOTS) $~/Source/FOTS.PyTorch$ bash build.sh Compiling crop_and_resize kernels by nvcc... Traceback (most recent call last): File "build.py", line 3, in <module> from torch.utils.ffi import create_extension File "~/.conda/envs/FOTS/lib/python2.7/site-packages/torch/utils/ffi/__init__.py", line 1, in <module> raise ImportError("torch.utils.ffi is deprecated. Please use cpp extensions instead.") ImportError: torch.utils.ffi is deprecated. Please use cpp extensions instead. |
最省事的情况是降级pytorch
版本到0.4
,强烈建议使用Anaconda
创建独立的Python
开发环境,然后在干净的环境中运行。
参考链接
ubuntu 18.04 "nvidia-340 导致 /usr/lib/x86_64-linux-gnu/libGL.so.1 转移到 /usr/lib/x86_64-linux-gnu/libGL.so.1.distrib"
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 |
$ sudo apt-get install cuda 正在读取软件包列表... 完成 正在分析软件包的依赖关系树 正在读取状态信息... 完成 cuda 已经是最新版 (10.1.243-1)。 您也许需要运行“apt --fix-broken install”来修正上面的错误。 下列软件包有未满足的依赖关系: cuda-drivers : 依赖: libnvidia-gl-418 (>= 418.87.00) 但是它将不会被安装 libnvidia-ifr1-418 : 依赖: libnvidia-gl-418 但是它将不会被安装 nvidia-driver-418 : 依赖: libnvidia-gl-418 (= 418.87.00-0ubuntu1) 但是它将不会被安装 推荐: libnvidia-compute-418:i386 (= 418.87.00-0ubuntu1) 推荐: libnvidia-decode-418:i386 (= 418.87.00-0ubuntu1) 推荐: libnvidia-encode-418:i386 (= 418.87.00-0ubuntu1) 推荐: libnvidia-ifr1-418:i386 (= 418.87.00-0ubuntu1) 推荐: libnvidia-fbc1-418:i386 (= 418.87.00-0ubuntu1) 推荐: libnvidia-gl-418:i386 (= 418.87.00-0ubuntu1) E: 有未能满足的依赖关系。请尝试不指明软件包的名字来运行“apt --fix-broken install”(也可以指定一个解决办法)。 $ sudo apt --fix-broken install 正在读取软件包列表... 完成 正在分析软件包的依赖关系树 正在读取状态信息... 完成 正在修复依赖关系... 完成 下列软件包是自动安装的并且现在不需要了: lib32gcc1 libc6-i386 使用'sudo apt autoremove'来卸载它(它们)。 将会同时安装下列软件: libnvidia-gl-418 下列【新】软件包将被安装: libnvidia-gl-418 升级了 0 个软件包,新安装了 1 个软件包,要卸载 0 个软件包,有 0 个软件包未被升级。 有 68 个软件包没有被完全安装或卸载。 需要下载 0 B/32.2 MB 的归档。 解压缩后会消耗 164 MB 的额外空间。 您希望继续执行吗? [Y/n] 获取:1 file:/var/cuda-repo-10-1-local-10.1.243-418.87.00 libnvidia-gl-418 418.87.00-0ubuntu1 [32.2 MB] (正在读取数据库 ... 系统当前共安装有 293566 个文件和目录。) 正准备解包 .../libnvidia-gl-418_418.87.00-0ubuntu1_amd64.deb ... dpkg-query: 没有找到与 libnvidia-gl-410 相匹配的软件包 nvidia-340 导致 /usr/lib/x86_64-linux-gnu/libGL.so.1 转移到 /usr/lib/x86_64-linux-gnu/libGL.so.1.distrib dpkg-divert: 错误: 删除 被 libnvidia-gl-418 转移的 /usr/lib/x86_64-linux-gnu/libGL.so.1 时 软件包名不匹配 发现了 nvidia-340 导致 /usr/lib/x86_64-linux-gnu/libGL.so.1 转移到 /usr/lib/x86_64-linux-gnu/libGL.so.1.distrib dpkg: 处理归档 /var/cuda-repo-10-1-local-10.1.243-418.87.00/./libnvidia-gl-418_418.87.00-0ubuntu1_amd64.deb (--unpack)时出错: new libnvidia-gl-418:amd64 package pre-installation script subprocess returned error exit status 2 在处理时有错误发生: /var/cuda-repo-10-1-local-10.1.243-418.87.00/./libnvidia-gl-418_418.87.00-0ubuntu1_amd64.deb E: Sub-process /usr/bin/dpkg returned an error code (1) |
解决方案如下:
1 2 3 4 5 |
# 解除nvidia 340全部依赖 $ LC_MESSAGES=C dpkg-divert --list '*nvidia-340*' | sed -nre 's/^diversion of (.*) to .*/\1/p' | xargs -rd'\n' -n1 -- sudo dpkg-divert --remove $ dpkg-divert --package nvidia-340 --remove /usr/lib/i386-linux-gnu/libGL.so.1 |
参考链接
发现了 nvidia-340 导致 /usr/lib/i386-linux-gnu/libGL.so.1 /usr/lib/i386-linux-gnu/libGL.so.1.distrib...
ubuntu 18.04 systemd-udevd进程CPU占用特别高,CUDA Toolkit 10.1 Update 2安装之后出现
最近在T440笔记本的ubuntu 18.04系统上安装最新的CUDA Toolkit 10.1 Update 2
之后,发现 systemd-udevd
进程CPU占用特别高,执行 sudo /lib/systemd/systemd-udevd -D
,会发现持续输出如下信息:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 |
RUN '/bin/systemctl start --no-block nvidia-persistenced.service' /lib/udev/rules.d/71-nvidia.rules:12 RUN '/sbin/modprobe nvidia-modeset' /lib/udev/rules.d/71-nvidia.rules:16 RUN '/sbin/modprobe nvidia-drm' /lib/udev/rules.d/71-nvidia.rules:20 RUN '/sbin/modprobe nvidia-uvm' /lib/udev/rules.d/71-nvidia.rules:24 RUN '/usr/bin/nvidia-smi' /lib/udev/rules.d/71-nvidia.rules:28 starting '/bin/systemctl start --no-block nvidia-persistenced.service' Process '/bin/systemctl start --no-block nvidia-persistenced.service' succeeded. starting '/sbin/modprobe nvidia-modeset' seq 115679 queued, 'remove' 'module' seq 115680 queued, 'add' 'module' seq 115681 queued, 'add' 'slab' seq 115682 queued, 'add' 'drivers' seq 115681 running seq 115682 running seq 115681 processed seq 115683 queued, 'remove' 'slab' seq 115684 queued, 'remove' 'drivers' seq 115683 running seq 115683 processed seq 115682 processed seq 115684 running seq 115684 processed seq 115685 queued, 'remove' 'module' '/sbin/modprobe nvidia-modeset'(err) 'modprobe: ERROR: could not insert 'nvidia_modeset': No such device' Process '/sbin/modprobe nvidia-modeset' failed with exit code 1. |
解决方法如下:
1 |
$ sudo rm -rf /lib/udev/rules.d/71-nvidia.rules |
参考链接
macOS Catalina(10.15.1)无法安装使用CUDA了
在 macOS Catalina (10.15.1)
系统上,已经无法安装使用CUDA
了。
貌似 CUDA
只能支持到 macOS High Sierra (10.13)
。
原因在于 Apple
严格控制着显卡驱动的权限,导致即时nvidia
希望更新显卡驱动,也需要等待 Apple
的许可。
但是貌似 Apple
对显卡驱动进行了深度的定制,而这个驱动定制团队貌似已经终止了。这就造成没办法进行驱动的更新,简直是悲剧啊!
参考链接中各种说法很多,但是一致的见解是只有降级系统这一条路了, Docker
也是不行的,宿主机不支持,也是搞不定。
不过,貌似安装双系统可以规避这个问题!(可惜只能是低版本系统安装高版本系统!高版本系统安装低版本的时候会被拒绝)。 一个 macOS High Sierra (10.13)
,另一个安装更高的系统版本。参考: 在单独的 APFS 宗卷上安装 macOS
参考链接
- No NVIDIA Drivers for Mojave
- Apple's management doesn't want Nvidia support in macOS, and that's a bad sign for the Mac Pro
- Why Won’t Apple Support Nvidia Silicon With macOS Mojave?
- CUDA 10 and macOS 10.14
- When will the Nvidia Web Drivers be released for macOS Mojave 10.14
- NVIDIA Driver and NVIDIA CUDA driver for nVidia GeForce GT750M on MacBook mid 2014 with Mojave 10.14...
- 苹果macOS Mojave 10.14正式版不支持NVIDIA驱动和CUDA加速
- 在单独的 APFS 宗卷上安装 macOS
- How to dual-boot Mac: run two versions of macOS on a Mac
- When will the Nvidia Drivers be released for macOS 10.15 Catalina?
Android Studio 3.5.2最小化接入weex 0.28.0实践
目前在尝试使用weex,但是在搭建基础的最小化项目的时候,官方文档描述的相当佛系,导致搭建出来的项目没办法正常运行。
下面我们探讨一下,使用Android Studio 3.5.2
新建一个项目,实现最小化接入weex 0.28.0
实践过程。
官方文档要求在项目的build.gradle
中增加如下内容:
1 2 |
implementation 'org.apache.weex:sdk:0.28.0@aar' implementation 'com.alibaba:fastjson:1.2.62' |
但是实际上,由于weex 0.28.0
的调整,以前版本自动引入的facebook
提供的JS
引擎js-android,现在被修改为需要手工引入,但是文档没有清晰的指出这个问题,导致运行的时候,会由于找不到libjsc.so
而导致WXSDKEngine
初始化失败。
官方提供了一个download_jsc.gradle
的脚本解决这个问题(这个脚本的功能仅仅是下载libjsc.so
),需要在项目的 build.gradle
的头部增加这个脚本文件的引用:
1 |
apply from: 'https://raw.githubusercontent.com/apache/incubator-weex/release/0.28/android/sdk/buildSrc/download_jsc.gradle' |
如果下载不成功,也可从本站下载
1 |
apply from: 'https://www.mobibrw.com/wp-content/uploads/2019/11/download_jsc.gradle' |
完成后的build.gradle
中完整内容如下:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 |
apply plugin: 'com.android.application' apply from: 'https://raw.githubusercontent.com/apache/incubator-weex/release/0.28/android/sdk/buildSrc/download_jsc.gradle' android { compileSdkVersion 28 defaultConfig { applicationId "com.mobibrw.weex" minSdkVersion 22 targetSdkVersion 28 versionCode 1 versionName "1.0" testInstrumentationRunner "androidx.test.runner.AndroidJUnitRunner" ndk { abiFilters "armeabi","armeabi-v7a", "arm64-v8a", "x86" } } buildTypes { release { minifyEnabled false proguardFiles getDefaultProguardFile('proguard-android-optimize.txt'), 'proguard-rules.pro' } } } dependencies { implementation fileTree(dir: 'libs', include: ['*.jar']) implementation 'androidx.appcompat:appcompat:1.1.0' implementation 'androidx.constraintlayout:constraintlayout:1.1.3' implementation 'com.google.android.material:material:1.0.0' implementation 'org.apache.weex:sdk:0.28.0@aar' implementation 'com.alibaba:fastjson:1.2.62' testImplementation 'junit:junit:4.12' androidTestImplementation 'androidx.test.ext:junit:1.1.1' androidTestImplementation 'androidx.test.espresso:espresso-core:3.2.0' } |
接下来,就是具体的代码部分了,如下,需要自定义一个Application
类,在Application
的初始化部分初始化WXSDKEngine
,代码如下:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 |
package com.mobibrw.weex; import android.app.Application; import org.apache.weex.InitConfig; import org.apache.weex.WXSDKEngine; public class WeexApplication extends Application { @Override public void onCreate() { super.onCreate(); final InitConfig config = new InitConfig.Builder().build(); /** * 底层的初始化是异步执行的,尤其是初始化JS引擎部分的代码(WXBridgeManager),是相当耗时的 * 因此,在调用完初始化之后,Activity第一次调用的时候,一定要增加是否已经初始化完成的判断 * 如果没有完成初始化,适当的增加延迟等待的代码 **/ WXSDKEngine.initialize(this, config); } } |
接下来,就是具体的Activity
内容展现代码部分了,代码如下:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 |
package com.mobibrw.weex; import android.os.Bundle; import androidx.appcompat.app.AppCompatActivity; import android.util.Log; import android.view.View; import org.apache.weex.IWXRenderListener; import org.apache.weex.WXSDKEngine; import org.apache.weex.WXSDKInstance; import org.apache.weex.common.WXRenderStrategy; public class MainActivity extends AppCompatActivity implements IWXRenderListener { private WXSDKInstance wXSDKInstance; private static final String TAG = "WXSampleTAG"; private void loadPages() { /** * bundleUrl source http://dotwe.org/vue/38e202c16bdfefbdb88a8754f975454c */ String pageName = "WXSample"; String bundleUrl = "http://dotwe.org/raw/dist/38e202c16bdfefbdb88a8754f975454c.bundle.wx"; wXSDKInstance.renderByUrl(pageName, bundleUrl, null, null, WXRenderStrategy.APPEND_ASYNC); } private void asyncLoadPages(final View view) { /** * 此处一定要判断WXSDKEngine是否已经成功初始化了,由于WXSDKEngine底层初始化的库非常多 * 导致整个的初始化非常的耗时,并且这个初始化是异步执行的,尤其是初始化JS引擎部分的代码(WXBridgeManager)。 * 因此有非常大的概率导致当第一次使用Week的API的时候,底层还没有完成初始化 * 导致出现错信息 "degradeToH5|createInstance fail|wx_create_instance_error isJSFrameworkInit==false reInitCount == 1" * 这段耗时可以通过在程序启动的时候增加启动等待页面来人性化的忽略这部分耗时。 **/ if(!WXSDKEngine.isInitialized()) { view.postDelayed(new Runnable() { @Override public void run() { asyncLoadPages(view); } }, 1); } else { loadPages(); } } @Override protected void onCreate(Bundle savedInstanceState) { super.onCreate(savedInstanceState); setContentView(R.layout.activity_main); final View view = findViewById(R.id.activity_main); wXSDKInstance = new WXSDKInstance(this); wXSDKInstance.registerRenderListener(this); asyncLoadPages(view); } @Override public void onPointerCaptureChanged(boolean hasCapture) { } @Override public void onViewCreated(WXSDKInstance instance, View view) { setContentView(view); } @Override public void onRenderSuccess(WXSDKInstance instance, int width, int height) { Log.i(TAG, "onRenderSuccess"); } @Override public void onRefreshSuccess(WXSDKInstance instance, int width, int height) { Log.i(TAG, "onRefreshSuccess"); } @Override public void onException(WXSDKInstance instance, String errCode, String msg) { Log.e(TAG, "onException:" + msg); } @Override protected void onResume() { super.onResume(); if(wXSDKInstance!=null){ wXSDKInstance.onActivityResume(); } } @Override protected void onPause() { super.onPause(); if(wXSDKInstance!=null){ wXSDKInstance.onActivityPause(); } } @Override protected void onStop() { super.onStop(); if(wXSDKInstance!=null){ wXSDKInstance.onActivityStop(); } } @Override protected void onDestroy() { super.onDestroy(); if(wXSDKInstance!=null){ wXSDKInstance.onActivityDestroy(); } } } |
需要注意的是WXSDKEngine
是异步初始化的,导致在首次调用的时候,可能会因为没有正常初始化而出现异常,因此需要等待初始化完成。
具体的例子项目在这里下载 Weex
鉴于开源项目经常性找不到文件,因此记录下来 http://dotwe.org/raw/dist/38e202c16bdfefbdb88a8754f975454c.bundle.wx 这个文件里面的内容:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 |
// { "framework": "Vue" } /******/ (function(modules) { // webpackBootstrap /******/ // The module cache /******/ var installedModules = {}; /******/ // The require function /******/ function __webpack_require__(moduleId) { /******/ // Check if module is in cache /******/ if (installedModules[moduleId]) /******/ return installedModules[moduleId].exports; /******/ // Create a new module (and put it into the cache) /******/ var module = installedModules[moduleId] = { /******/ exports: {}, /******/ id: moduleId, /******/ loaded: false /******/ }; /******/ // Execute the module function /******/ modules[moduleId].call(module.exports, module, module.exports, __webpack_require__); /******/ // Flag the module as loaded /******/ module.loaded = true; /******/ // Return the exports of the module /******/ return module.exports; /******/ } /******/ // expose the modules object (__webpack_modules__) /******/ __webpack_require__.m = modules; /******/ // expose the module cache /******/ __webpack_require__.c = installedModules; /******/ // __webpack_public_path__ /******/ __webpack_require__.p = ""; /******/ // Load entry module and return exports /******/ return __webpack_require__(0); /******/ }) /************************************************************************/ /******/ ([ /* 0 */ /***/ function(module, exports, __webpack_require__) { 'use strict'; var _e202c16bdfefbdb88a8754f975454c = __webpack_require__(1); var _e202c16bdfefbdb88a8754f975454c2 = _interopRequireDefault(_e202c16bdfefbdb88a8754f975454c); function _interopRequireDefault(obj) { return obj && obj.__esModule ? obj : { default: obj }; } _e202c16bdfefbdb88a8754f975454c2.default.el = '#root'; new Vue(_e202c16bdfefbdb88a8754f975454c2.default); /***/ }, /* 1 */ /***/ function(module, exports, __webpack_require__) { var __vue_exports__, __vue_options__ var __vue_styles__ = [] /* styles */ __vue_styles__.push(__webpack_require__(2)) /* script */ __vue_exports__ = __webpack_require__(3) /* template */ var __vue_template__ = __webpack_require__(4) __vue_options__ = __vue_exports__ = __vue_exports__ || {} if ( typeof __vue_exports__.default === "object" || typeof __vue_exports__.default === "function" ) { if (Object.keys(__vue_exports__).some(function(key) { return key !== "default" && key !== "__esModule" })) { console.error("named exports are not supported in *.vue files.") } __vue_options__ = __vue_exports__ = __vue_exports__.default } if (typeof __vue_options__ === "function") { __vue_options__ = __vue_options__.options } __vue_options__.__file = "/usr/src/app/raw/38e202c16bdfefbdb88a8754f975454c.vue" __vue_options__.render = __vue_template__.render __vue_options__.staticRenderFns = __vue_template__.staticRenderFns __vue_options__._scopeId = "data-v-02e1e786" __vue_options__.style = __vue_options__.style || {} __vue_styles__.forEach(function(module) { for (var name in module) { __vue_options__.style[name] = module[name] } }) if (typeof __register_static_styles__ === "function") { __register_static_styles__(__vue_options__._scopeId, __vue_styles__) } module.exports = __vue_exports__ /***/ }, /* 2 */ /***/ function(module, exports) { module.exports = { "text": { "fontSize": 50 } } /***/ }, /* 3 */ /***/ function(module, exports) { 'use strict'; Object.defineProperty(exports, "__esModule", { value: true }); // // // // // // // // // // exports.default = { data: function data() { return { text: 'Hello World.' }; } }; /***/ }, /* 4 */ /***/ function(module, exports) { module.exports = { render: function() { var _vm = this; var _h = _vm.$createElement; var _c = _vm._self._c || _h; return _c('div', [_c('text', { staticClass: ["text"] }, [_vm._v(_vm._s(_vm.text))])]) }, staticRenderFns: [] } module.exports.render._withStripped = true /***/ } /******/ ]); |
参考链接
html数学公式显示库MathJax的使用
MathJax是一个开源的web数学公式渲染器,由JS编写而成。MathJax允许你在你的网页中包含公式,无论是使用LaTeX、MathML或者AsciiMath符号,这些公式都会被javascript处理为HTML、SVG或者MathML符号。
引入CDN
只需要在头部添加下面这句,就可以成功引入CDN
1 2 3 |
<script type="text/javascript" async src="https://cdnjs.cloudflare.com/ajax/libs/mathjax/2.7.5/MathJax.js?config=TeX-MML-AM_CHTML" async> </script> |
内联config说明
官方提供了一个能让我们内联一个配置选项的功能,要想让这个内联配置生效就得放在
CDN引入之前。如下
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 |
<script type="text/x-mathjax-config"> MathJax.Hub.Config({ showProcessingMessages: false, //关闭js加载过程信息 messageStyle: "none", //不显示信息 extensions: ["tex2jax.js"], jax: ["input/TeX", "output/HTML-CSS"], tex2jax: { inlineMath: [ ['$','$'], ["\\(","\\)"] ], displayMath: [ ['$$','$$'], ["\\[","\\]"] ], skipTags: ['script', 'noscript', 'style', 'textarea', 'pre','code', 'a', 'annotation', 'annotation-xml'], ignoreClass: 'crayon-.*' // 'crayon-' 开头的类,属于Wordpress代码高亮库,这部分不需要处理,否则会导致显示不正确,这部分是正则式,多条之间用'|'分割 }, 'HTML-CSS': { showMathMenu: false //禁用右键菜单 } }); MathJax.Hub.Queue(["Typeset",MathJax.Hub]); </script> |
MathJax 2.x 跟 MathJax 3.x 的配置信息是不同的,这部分的配置转换可以通过MathJax-demos-web中的v2 to v3 Configuration Converter。
上面的配置信息,转换后的结果如下:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 |
window.MathJax = { tex: { inlineMath: [ ['$','$'], ["\\(","\\)"] ], displayMath: [ ['$$','$$'], ["\\[","\\]"] ] }, options: { skipHtmlTags: ['script', 'noscript', 'style', 'textarea', 'pre','code', 'a', 'annotation', 'annotation-xml'], ignoreHtmlClass: 'tex2jax_ignore|crayon-.*', // 'crayon-' 开头的类,属于Wordpress代码高亮库,这部分不需要处理,否则会导致显示不正确,这部分是正则式,多条之间用'|'分割 processHtmlClass: 'tex2jax_process' }, //禁用右键菜单 renderActions: { addMenu: [0, '', ''] } }; |
其中MathJax.Hub.Config()里的配置选项是重点,本例表示用来识别行内公式,$来识别行间公式。
书写公式
对应的公式在html文件中写法如下
1 2 3 |
<body> ${x}^{(2)}\text{=}\begin{bmatrix} 1416\\ 3\\ 2\\ 40 \end{bmatrix}$ </body> |
显示效果
WordPress上实现上述功能,最简单的方式是安装 Simple Mathjax 插件即可。
注意,目前(2022/03/16)的 MathJax 3.x 还不支持多语言,不支持公式自动换行(automatic line breaking)。
参考链接
Compatibility Between SPIR-V Image Formats And Vulkan Formats
SPIR-V Image Format | Compatible Vulkan Format |
---|---|
Rgba32f |
VK_FORMAT_R32G32B32A32_SFLOAT |
Rgba16f |
VK_FORMAT_R16G16B16A16_SFLOAT |
R32f |
VK_FORMAT_R32_SFLOAT |
Rgba8 |
VK_FORMAT_R8G8B8A8_UNORM |
Rgba8Snorm |
VK_FORMAT_R8G8B8A8_SNORM |
Rg32f |
VK_FORMAT_R32G32_SFLOAT |
Rg16f |
VK_FORMAT_R16G16_SFLOAT |
R11fG11fB10f |
VK_FORMAT_B10G11R11_UFLOAT_PACK32 |
R16f |
VK_FORMAT_R16_SFLOAT |
Rgba16 |
VK_FORMAT_R16G16B16A16_UNORM |
Rgb10A2 |
VK_FORMAT_A2B10G10R10_UNORM_PACK32 |
Rg16 |
VK_FORMAT_R16G16_UNORM |
Rg8 |
VK_FORMAT_R8G8_UNORM |
R16 |
VK_FORMAT_R16_UNORM |
R8 |
VK_FORMAT_R8_UNORM |
Rgba16Snorm |
VK_FORMAT_R16G16B16A16_SNORM |
Rg16Snorm |
VK_FORMAT_R16G16_SNORM |
Rg8Snorm |
VK_FORMAT_R8G8_SNORM |
R16Snorm |
VK_FORMAT_R16_SNORM |
R8Snorm |
VK_FORMAT_R8_SNORM |
Rgba32i |
VK_FORMAT_R32G32B32A32_SINT |
Rgba16i |
VK_FORMAT_R16G16B16A16_SINT |
Rgba8i |
VK_FORMAT_R8G8B8A8_SINT |
R32i |
VK_FORMAT_R32_SINT |
Rg32i |
VK_FORMAT_R32G32_SINT |
Rg16i |
VK_FORMAT_R16G16_SINT |
Rg8i |
VK_FORMAT_R8G8_SINT |
R16i |
VK_FORMAT_R16_SINT |
R8i |
VK_FORMAT_R8_SINT |
Rgba32ui |
VK_FORMAT_R32G32B32A32_UINT |
Rgba16ui |
VK_FORMAT_R16G16B16A16_UINT |
Rgba8ui |
VK_FORMAT_R8G8B8A8_UINT |
R32ui |
VK_FORMAT_R32_UINT |
Rgb10a2ui |
VK_FORMAT_A2B10G10R10_UINT_PACK32 |
Rg32ui |
VK_FORMAT_R32G32_UINT |
Rg16ui |
VK_FORMAT_R16G16_UINT |
Rg8ui |
VK_FORMAT_R8G8_UINT |
R16ui |
VK_FORMAT_R16_UINT |
R8ui |
VK_FORMAT_R8_UINT |
参考链接
Compatibility Between SPIR-V Image Formats And Vulkan Formats