1.3. 理论

在介绍DP具体方法之前, 我们首先定义一个 原子系统的坐标矩阵

表示原子 的三维笛卡尔坐标。此外,我们将坐标矩阵 转换成局域坐标矩阵 ,

其中 是原子 在截断半径内近邻原子的编号, 表示原子 的近邻原子编号, 表示的是原子 和原子 之间的相对距离。

在DP方法中, 一个系统的总能量 等于各个原子的局域能量的总和

其中 是原子 的局域能量. 此外, 取决于原子 的局域环境:

可以通过以下两个步骤得到 的映射:第一步,如图figure 所示,通过将 要映射到特征矩阵,或者说描述子 ,这里的 保留了体系的平移、旋转和置换不变性。具体来说, 首先被映射到一个扩展矩阵

其中 , , . 是一个权重函数,用来减少离原子 比较远的原子的权重, 定义如下:

其中 是原子 和原子 之间的欧式距离, 是“平滑截断半径”。引入 之后, 里的各个参数会从 平滑地趋于零。 接着 , 也就是 的第一列通过一个嵌入神经网络得到一个嵌入矩阵 . 选取 的前 列,我们就得到了另外一个嵌入矩阵 . 最后,我们就可以得到原子 的描述子

在描述子中, 平移和旋转不变性是由矩阵乘积 来保证的, 置换不变性是由矩阵乘积 来保证的。

第二步, 每一个描述子 都将通过一个拟合神经网络被映射到一个局域能量 上面。

嵌入神经网络 和拟合神经网络 都是包含很多隐藏层的前馈神经网络。 前一层的输入数据 通过一个线性运算和一个非线性的激活函数得到下一层的输入数据 .

在公式(8)中, 是权重参数, 是偏置参数, 是一个非线性的激活函数。需要注意的是,在最后一层的输出节点是没有非线性激活函数的。在嵌入网络和拟合网络中的参数由最小化代价函数 得到:

其中 , , 和 分别表示能量、力和维里的方均根误差 (RMSE) . 在训练的过程中, 前置因子 , , 和 由公式

决定,其中 分别表示在训练步数为 和训练步数为0 时的学习率。 的定义为

其中 分别表示学习衰减率以及衰减步数。学习衰减率 要严格小于1。 如果读者想要了解更多细节,可以查看文章DeepPot-SE.

翻译:范家豪 校对:杜云珍