专业网站建设品牌,十四年专业建站经验,服务6000+客户--广州京杭网络
免费热线:400-683-0016      微信咨询  |  联系我们

mysql遍历查询子集,写出你自己的TensorFlow_数据库

当前位置:网站建设 > 技术支持
资料来源:网络整理       时间:2023/3/5 17:22:55       共计:3615 浏览
mysql遍历查询子集,写出你自己的TensorFlow?

在我们开始讲解前,可以先看看最终成型的代码:

1. 分支与特征后端

2. 仅支持标量的分支

这个工程是我与 Minh Le 一起完成的。

为什么?

如果你修习的是计算机科学(CS)的人的话,你可能听说过这个短语「不要自己动手____」几千次了。它包含了加密,标准库,解析器等等。我想到现在为止,它也应该包含机器学习库(ML library)了。

不管现实是怎么样的,这个震撼的课程都值得我们去学习。人们现在把 TensorFlow 和类似的库当作理所当然了。他们把它看作黑盒子并让他运行起来,但是并没有多少人知道在这背后的运行原理。这只是一个非凸(Non-convex)的优化问题!请停止对代码无意义的胡搞——仅仅只是为了让代码看上去像是正确的。

TensorFlow

在 TensorFlow 的代码里,有一个重要的组件,允许你将操作串在一起,形成一个称为「图形运算符」(此处英文错误?正确英文应为 Graph Operator)的东西。这个操作图是一个有向图 G=(V,E)G=(V,E), 在某些节点处 u1,u2,…,un,v∈Vu1,u2,…,un,v∈V,和 e1,e2,…,en∈E,ei=(ui,v)e1,e2,…,en∈E,ei=(ui,v)。我们知道,存在某种操作图从 u1,…,unu1,…,un 映射到 vv.

举个例子,如果我们有 x + y = z,那么 (x,z),(y,z)∈E(x,z),(y,z)∈E.

这对于评估算术表达式非常有用,我们能够在操作图的汇点下找到结果。汇点是类似 v∈V,?e=(v,u)v∈V,?e=(v,u) 这样的顶点。从另一方面来说,这些顶点从自身到其他顶点并没有定向边界。同样的,输入源是 v∈V,?e=(u,v)v∈V,?e=(u,v).

对于我们来说,我们总是把值放在输入源上,而值也将传播到汇点上。

反向模式分化

如果你觉得我的解释不正确,可以参考下这些幻灯片的说明。

差异化是 Tensorflow 中许多模型的核心需求,因为我们需要它梯度下降的运行。每一个从高中毕业的人都应该知道差异化的意思。如果是基于基础函数组成的复杂函数,则只需要求出函数的导数,然后做链式法则。

在 5 分钟内倒转模式

所以现在请记住我们运行操作符时用的有向无环结构(DAG=Directed Acyclic Graph=有向无环图),还有上一个例子用到的链式法则。做出评估,我们能看到像这样的

x -> h -> g -> f

作为一个图表,在 f 它能够给予我们答案。然而,我们也可以反过来:

dx <- dh <- dg <- df

这样它看起来就像链式法则了!我们需要把导数相乘到最终结果的路径上。

这里是一个操作符的例子:

所以这将衰减为一个图的遍历问题。有谁感觉到这是个拓扑排序和深度优先搜索/宽度优先搜索?

是的,所以为了在双方面都支持拓扑排序,我们需要包含一套父组一套子组,而汇点是另一个方向的来源。反之亦然。

执行

在学校开学前,Minh Le 和我开始设计这个工程。我们决定使用后端的特征库进行线性代数的运算。他们有一个叫做 MatrixXd 的矩阵类。我们在这儿使用那个东西。

class var {// Forward declarationstruct impl;public:// For initialization of new vars by ptr var(std::shared_ptr<impl>);var(double);var(const MatrixXd&);var(op_type, const std::vector<var>&);...// Access/Modify the current node value MatrixXd getValue() const;void setValue(const MatrixXd&);op_type getOp() const;void setOp(op_type);// Access internals (no modify) std::vector<var>& getChildren() const;std::vector<var> getParents() const;...private:// PImpl idiom requires forward declaration of the class: std::shared_ptr<impl> pimpl;};struct var::impl{public:impl(const MatrixXd&);impl(op_type, const std::vector<var>&);MatrixXd val;op_type op;std::vector<var> children;std::vector<std::weak_ptr<impl>> parents;};

在这儿,我们曾使用过一个叫「pImpl」的习语,意识是「执行的指针」。它对很多东西都很好,比如接口的解耦实现,以及当我们在堆栈上有一个本地接口时,允许我们实例化堆上的东西。一些「pImpl」的副作用是微弱的减慢运行时间,但是编译时间缩短了很多。这允许我们通过多个函数调用/返回来保持数据结构的持久性。像这样的树形数据结构应该是持久的。

我们有一些枚举来告诉我们目前正在进行哪些操作:

enum class op_type {plus,minus,multiply,divide,exponent,log,polynomial,dot,...none // no operators. leaf.};

执行此树的评估的实际类称为 expression:

class expression {public:expression(var);...// Recursively evaluates the tree. double propagate();...// Computes the derivative for the entire graph. // Performs a top-down evaluation of the tree. void backpropagate(std::unordered_map<var, double>& leaves);...private:var root;};

在回溯里,我们有一些做成类似这样的代码:

backpropagate(node, dprev):

derivative = differentiate(node)*dprev

for child in node.children:

backpropagate(child, derivative)

这几乎是在做一个深度优先搜索;你看到了吧?

为什么是 C++?

在实际过程中,C++可能不是合适的语言来做这些事儿。我们可以在像「Oaml」这样的函数式语言中花费更少的时间来开发。现在我明白为什么「Scala」被用于机器学习中,主要就是因为「Spark」

然而,这很明显有利于 C++。

Eigen(库名)

举例来说,我们可以直接使用一个叫「Eigen」的 TensorFlow 的线性代数库。这是一个不假思索就被人用烂了的线性代数库。有一种类似于我们的表达式树的味道,我们构建表达式,它只会在我们真正需要的时候进行评估。然而,对于「Eigen」来说,他们在编译的时间内就决定使用什么模版,这意味着运行的时间减少了。我对写出「Eigen」的人抱有很大的敬意,因为查看模版的错误几乎让我眼瞎!

他们的代码看起来类似这样的:

Matrix A(...), B(...);auto lazy_multiply = A.dot(B);typeid(lazy_multiply).name(); // the class name is something like Dot_Matrix_Matrix.Matrix(lazy_multiply); // functional-style casting forces evaluation of this matrix.

这个特征库非常的强大,这就是为什么它是 TensortFlow 使用这些代码作为主要后端之一的原因。这意味着除了这个慢吞吞的评估技术之外还有其他的优化。

运算符重载

在 Java 中开发这个库很不错——因为没有 shared_ptrs, unique_ptrs, weak_ptrs;我们得到了一个真实的,有用的图形计算器(GC=Graphing Calculator)。这大大节省了开发时间,更不必说更快的执行速度。然而,Java 不允许操作符重载,因此它们不能这样:

// These 3 lines code up an entire neural network!var sigm1 = 1 / (1 + exp(-1 * dot(X, w1)));var sigm2 = 1 / (1 + exp(-1 * dot(sigm1, w2)));var loss = sum(-1 * (y * log(sigm2) + (1-y) * log(1-sigm2)));

顺便说一下,上面是实际的代码。是不是非常的漂亮?我想说的是对于 TensorFlow 里面,这比使用 Python 封装来的更优美!这只是让你知道,它们也是矩阵而已。

在 Java 中,有一连串的 add(), divide() 等等是非常难看的。更重要的是,这将让用户更多的关注在「PEMDAS」上,而 C++的操作符则有非常好的表现。

特性,而不是一连串的故障

在这个库中,有一些东西是可以指定的,它没有明确的应用程序编程接口(API=Application Programming Interface),或者有但我知道。举例子,实际上,如果我们只想训练一个特定的权重子集,我们只可以回溯到我们感兴趣的特定来源。这对于卷积神经网络的转移学习非常有用,因为很多时候,像 VGG19 这样的大网络被斩断,会附加了一些额外的层,根据新的域名样本来训练权重。

基准

在 Python 的 TensorFlow 库中,对虹膜数据集上的 10000 个「Epochs」进行训练以进行分类,并使用相同的超参数,我们有:

1.TensorFlow 的神经网络: 23812.5 ms

2.「Scikit」的神经网络:22412.2 ms

3.「Autodiff」的神经网络,迭代,优化:25397.2 ms

4.「Autodiff」的神经网络,迭代,无优化:29052.4 ms

5.「Autodiff」的神经网络,带有递归,无优化:28121.5 ms

令人惊讶的是,Scikit 是所有这些中最快的。这可能是因为我们没有做庞大的矩阵乘法。也可能是 TensorFlow 需要额外的编译步骤,如变量初始化等等。或者,也许我们不得不在 python 中运行循环,而不是在 C 中(Python 循环真的非常糟糕!)我对自己也不是很自信。我完全意识到,这绝不是一种全面的基准测试,因为在特定的情况下,它只适用于单个数据点。然而,库的表现并不能代表行为状态,因为我们不需要回滚我们自己的 TensorFlow。

版权说明:
本网站凡注明“广州京杭 原创”的皆为本站原创文章,如需转载请注明出处!
本网转载皆注明出处,遵循行业规范,如发现作品内容版权或其它问题的,请与我们联系处理!
欢迎扫描右侧微信二维码与我们联系。
·上一条:Java的前景如何_数据库 | ·下一条:mysql查询时间效率,时间日期对应什么数据库属性_数据库

Copyright © 广州京杭网络科技有限公司 2005-2024 版权所有    粤ICP备16019765号 

广州京杭网络科技有限公司 版权所有