Google的机器学习取得了重大突破
Google昨天召开了全球电话会议,其Deep MInd创始人Demis Hassabis(Demis Hassabis)宣布了Google在人工智能领域的重要进展:开发了一种可以击败Go& mdash的专业玩家的程序。 & mdash; AlphaGo,后者可以通过机器学习掌握游戏技能。
在象棋比赛中,计算机比赛和人类比赛并不少见。在象棋游戏中,计算机已经连续地完成了对人类的挑战,例如三人,跳棋和象棋。
但是对于拥有2500多年历史的Go来说,计算机从未像现在这样击败过人类。围棋看起来很简单,规则也不难。
该棋盘具有水平和水平的19个,九个等距且垂直相交的平行线,总共形成19个TImes; 19(361)相交。游戏的两侧交替放置棋子,以便在棋盘上占据尽可能多的空间。
在游戏的极简外观下,Go具有令人难以置信的深度和微妙之处。当棋盘为空时,第一个玩家有361个选项。
在游戏过程中,它有比国际象棋更多的选择,这就是为什么人工智能和机器学习的开发人员始终希望在这里取得突破。从机器学习的角度来看,Go最多可以计算3 ^ 361个位置。
近似体积为10 ^ 170,而观察到的宇宙中的原子数仅为10 ^ 80。在国际象棋中只有2 ^ 155个位置,称为香农数,大约为10 ^ 47。
传统的人工智能方法是将所有可能的动作构建到搜索树中,但是这种方法不适用于Go。谷歌这次发布的AlphaGo将高级搜索树与深度神经网络结合在一起。
这些神经网络通过12个处理层传达棋盘的描述,其中包含数百万条类似于神经的连接。神经网络“决策网络”(策略网络)负责选择下一步,而另一个神经网络“价值网络”(“价值网络”)则预测获胜者游戏的。
在Google方面,该神经网络接受了3000万人类围棋大师的动作训练。同时,AlphaGo还自行研究了新策略。
它在其神经网络之间运行了数千回合,并通过反复试验来调整连接点。此过程也称为强化学习。
通过广泛使用Google云平台,许多研究工作已经完成。征服Go对Google来说意义重大。
AlphaGo不仅是“专家”,而且遵循手动规则的系统,它也使用“机器学习”系统来执行。掌握如何独自赢得Go游戏。
Google希望使用这些技术来解决现实世界中最严重,最紧迫的问题-从气候建模到复杂的灾难分析。在特定的机器培训中,决策网络是进入人类围棋专家的游戏。
直到系统可以预测57%的人类行为,之前的最佳结果才是44%。从那时起,AlphaGo开始学习通过在神经网络内玩游戏(可以简单地理解为自己下棋)来独立探索新的围棋策略。
目前,AlphaGo的决策网络可以通过庞大的搜索树击败大多数最先进的Go程序。价值网络也可以通过自己下棋来训练。
当前的价值网络可以评估获胜的几率。以前认为这是不可能的。
实际上,AlphaGo已经成为最好的人工智能Go程序。在使用其他程序进行的游戏中,AlphaGo在一台机器上就获得了500场胜利,甚至还拥有让对手在4手牌后获胜的记录。
去年10月5日至10月9日,Google安排了AlphaGo与欧洲围棋冠军范慧(范慧:法国国家围棋队总教练)的闭门比赛。 Google赢了5-0。
公开比赛将于今年3月举行。 AlphaGo将在韩国首尔与韩国围棋选手Lee Sedol 9duan竞争。
李·塞多尔(Lee Sedol)是过去10年中赢得世界冠军最多的球员。谷歌为此提供了100万美元。
奖金。李世石表示,他很期待这次对决,他对获胜充满信心。
值得一提的是,最后一次著名的人机游戏可以追溯到1997年。由IBM开发的产品击败了国际象棋冠军卡斯帕罗夫。
但是国际象棋的算法比Go的算法简单得多。为了赢得国际象棋,您只需要“杀死”棋子即可。
国王,在Go中,您可以使用计数或比较对象的方法来计算胜利,而不仅仅是杀死对手&#3。
在象棋比赛中,计算机比赛和人类比赛并不少见。在象棋游戏中,计算机已经连续地完成了对人类的挑战,例如三人,跳棋和象棋。
但是对于拥有2500多年历史的Go来说,计算机从未像现在这样击败过人类。围棋看起来很简单,规则也不难。
该棋盘具有水平和水平的19个,九个等距且垂直相交的平行线,总共形成19个TImes; 19(361)相交。游戏的两侧交替放置棋子,以便在棋盘上占据尽可能多的空间。
在游戏的极简外观下,Go具有令人难以置信的深度和微妙之处。当棋盘为空时,第一个玩家有361个选项。
在游戏过程中,它有比国际象棋更多的选择,这就是为什么人工智能和机器学习的开发人员始终希望在这里取得突破。从机器学习的角度来看,Go最多可以计算3 ^ 361个位置。
近似体积为10 ^ 170,而观察到的宇宙中的原子数仅为10 ^ 80。在国际象棋中只有2 ^ 155个位置,称为香农数,大约为10 ^ 47。
传统的人工智能方法是将所有可能的动作构建到搜索树中,但是这种方法不适用于Go。谷歌这次发布的AlphaGo将高级搜索树与深度神经网络结合在一起。
这些神经网络通过12个处理层传达棋盘的描述,其中包含数百万条类似于神经的连接。神经网络“决策网络”(策略网络)负责选择下一步,而另一个神经网络“价值网络”(“价值网络”)则预测获胜者游戏的。
在Google方面,该神经网络接受了3000万人类围棋大师的动作训练。同时,AlphaGo还自行研究了新策略。
它在其神经网络之间运行了数千回合,并通过反复试验来调整连接点。此过程也称为强化学习。
通过广泛使用Google云平台,许多研究工作已经完成。征服Go对Google来说意义重大。
AlphaGo不仅是“专家”,而且遵循手动规则的系统,它也使用“机器学习”系统来执行。掌握如何独自赢得Go游戏。
Google希望使用这些技术来解决现实世界中最严重,最紧迫的问题-从气候建模到复杂的灾难分析。在特定的机器培训中,决策网络是进入人类围棋专家的游戏。
直到系统可以预测57%的人类行为,之前的最佳结果才是44%。从那时起,AlphaGo开始学习通过在神经网络内玩游戏(可以简单地理解为自己下棋)来独立探索新的围棋策略。
目前,AlphaGo的决策网络可以通过庞大的搜索树击败大多数最先进的Go程序。价值网络也可以通过自己下棋来训练。
当前的价值网络可以评估获胜的几率。以前认为这是不可能的。
实际上,AlphaGo已经成为最好的人工智能Go程序。在使用其他程序进行的游戏中,AlphaGo在一台机器上就获得了500场胜利,甚至还拥有让对手在4手牌后获胜的记录。
去年10月5日至10月9日,Google安排了AlphaGo与欧洲围棋冠军范慧(范慧:法国国家围棋队总教练)的闭门比赛。 Google赢了5-0。
公开比赛将于今年3月举行。 AlphaGo将在韩国首尔与韩国围棋选手Lee Sedol 9duan竞争。
李·塞多尔(Lee Sedol)是过去10年中赢得世界冠军最多的球员。谷歌为此提供了100万美元。
奖金。李世石表示,他很期待这次对决,他对获胜充满信心。
值得一提的是,最后一次著名的人机游戏可以追溯到1997年。由IBM开发的产品击败了国际象棋冠军卡斯帕罗夫。
但是国际象棋的算法比Go的算法简单得多。为了赢得国际象棋,您只需要“杀死”棋子即可。
国王,在Go中,您可以使用计数或比较对象的方法来计算胜利,而不仅仅是杀死对手&#3。
- 电话:0755-29796190
- 邮箱:ys@jepsun.com
- 联系人:陆经理 18038104190
- 联系人:李经理 13316946190
- 联系人:聂经理 18923485199
- 联系人:肖经理 17727576190
- QQ:2057469664
- 地址:深圳市宝安区翻身路富源大厦1栋7楼

