网友提问:

如何安装谷歌框架 google三件套一键安装谷歌框架

优质回答:

亲测:华为老爷机安装谷歌框架,下面是漫漫开发路给大家的分享,一起来看看。

如何安装谷歌框架

这两天我花了些时间瞎折腾了一番,好消息是:折腾成功。在此记录下来,希望可以帮助有同样苦恼的老哥。

基本环境:手机:华为Nova 2s。目标:运行谷歌框架

这台华为的老爷机Nova 2s,因为工作原因需要给它装上谷歌框架,以及其他一大堆的谷歌全家桶。

鸿蒙

一开始手机运行的最新的鸿蒙系统,操作体验和各项功能还不错。于是网上找到了GMS安装器,点击一键安装后,提示重启。重启之后,重新进入谷歌安装器,还是同样的重启提示,这意味着,这款安装器可能不能在鸿蒙上顺利运行。最后的结果会是无限重启。

降级到9.1

使用华为手机助手的系统更新功能,将运行鸿蒙系统的手机接到电脑,然后可以降级到上一个旧版本,也就是EMUI 9.1。这个版本我之前测试过,肯定是无法安装谷歌框架的,所以完成降级之后,没有多想,继续降级到EMUI 9.0。

9.0也不大行

网上的说法是一般旧版本的9.0可以用来安装谷歌框架。我抱着极大的自信开始进行安装,测试过了各种谷歌框架安装器,例如上面说的GMS安装器,同样的也是提示重启,后面进入无线重启,也测试过其他的,例如HiGoPlay安装器和GO谷歌安装器。其中,HiGoPlay安装器可以顺利完成谷歌三件套(Google服务框架,Google Play服务,Google Play App),但是当我启动Google Play时,点击登录按钮时没有任何反应。看来这个版本还是有问题。

继续降级到8.0

9.0的安装失败,对我的自信心来了一次很大的打击。一个晚上过去,我决定继续降级。继续使用华为手机助手,降级至上一个版本8.0。降级过程没有太大的问题,谢天谢地。

运行8.0的系统后,手机的各项功能基本正常。然后首先尝试GMS安装器,这次也是提示重启。我乖乖地照做,重启之后,再次进入安装器,这次终于提示框架安装成功,心中的激动像滔滔流水一般,把我乐的。

然后后面的过程就比较简单了,直接使用其他安装器把剩下的几个套件给安装上,主要是Google Play得有。有了Google Play,基本就可以轻松无压力地安装其他全家桶了。

总结

经过这次折腾,我感受到了谷歌强大的生态系统控制力。全家桶还真不是盖的。对于老外来说,有两样东西他们从一出生就躲不过:税,谷歌。

我推测鸿蒙和9.0/9.1安装不成功的原因,可能是系统更新之后,某部分组件和谷歌框架不再兼容。还好旧版本的8.0给力,我要给华为手机助手的开发团队颁发一朵小红花,没有你们,我可没法降级到8.0。(不是高级黑,是真感恩)

这又使我想起了我最近一直更新的拓扑梅尔智慧办公平台(Topomel Box),目前我依旧十分小心的引入各个第三方开源组件,因为我知道,引入的组件越多,各组件之间的调用关系将越复杂,就容易出现你所不容易发现的兼容性问题。

开源它好是好,但是我还犯着各位猿友的通病呢:这轮子我还得自己来。

google三件套一键安装谷歌框架

「Don’t Be Evil(不作恶)」这句口号,在 2018 年之前一直是 Google 的座右铭和行为准则。

▲ 图片来自:substack

这指的是 Google 在做事时要遵循道德和法律,不做有害社会和用户的事情。

但到了 2018 年,这个话术被修改为「Do the right thing(做正确的事情)」。

Google 的这个变化,被许多人认为它已经违背初心。

▲ 图片来自:vox

并在后续的一些商业行为中,Google 也没有保持技术的中立性,反而更偏向于商业获利,收集用户隐私,并利用一些数据来保证自己业务的扩张。

之所以提 Google 的这句经典口号,是因为当下的 AIGC 出现的突然爆发,与此前互联网的爆发节点有些异曲同工。

现任 Google CEO Sundar Pichai 接受 CBS《60 分钟》节目采访时,对于当下的 AI,又提到了「Dont Be Evil」。

并且也表示当下 Google 的 Bard 之所以显得有点笨拙,实则是因为没有公布 Bard 的高级版本。

「希望能够给社会更多的时间适应 AI,和给公司更多的时间开发安全围栏。」

简单来说,Pichai 认为 Google 的 AI 实力并不比 OpenAI 差,且是出于社会责任,而暂时将 AI 技术封印了起来。

但,无论是从彭博、the Verge、金融时报各方面的报道来看,Google 内部却对 Bard,以及 Google 当下对 AI 技术的开发和监管,却有着截然不同的声音。

为了抗衡 ChatGPT,伦理道德可以先放一边

大概在 2011 年,Google 就创立了 Google Brain 项目,着手于深度学习领域,也意味着 Google 开始涉足 AI。

从此往后,Google 几乎每年都在 AI 领域取得一些小成果和达成小目标。

从 AlphaGo 下棋赢了世界冠军李世石,到发布 TensorFlow 开源框架,再到机器学习芯片 TPU 的发布,和近期 BERT、LaMDA 等语言模型。

Google 在 AI 领域可谓是轻车熟路的老手,在研究 AI 的过程中,其内部也有了较为完善的风险团队、技术团队等等,可谓兵强马壮。

当然,也有点不可一世。

每年 Google 开发者大会的内容,也开始转向 AI,向外界展示 Google 在 AI 领域的深厚实力。

外界也普遍认为,Google 会率先引领 AI 行业变革。

直到 ChatGPT,准确的说是 GPT-3 的横空出世,以及后续 GPT-4 的出现,Midjourney V5 的火热。

还没等 Google 反应过来,微软就抓住机会,与 OpenAI 合作,将 ChatGPT 运用到了新 bing 当中,引发了一次「搜索」变革。

当 Google 回过神,连夜推出了 Bard,刚一上线就闹了乌龙,出现了不少事实性错误,并且至今只支持英语。

相对于 ChatGPT、新 bing 来说,逊色太多。

仓促推出 Bard 的结局,就是引发信任危机,股价大跌,即便后续 Google 即使调整,Bard 的影响仍然不能与 ChatGPT 相提并论。

造成如此的局面,Google 内部的一些员工也表示,Bard 压根就没能通过一些道德基准测试,很容易说谎,和发出负面言论。

在内部测试的过程中,一位员工向 Bard 寻求如何降落飞机,它回答出的步骤,极容易导致坠机。

而另外一位员工问 Bard 潜水问题时,它则会给出容易导致严重伤害或者死亡的答案。

除了这些危险的答案,在一些道德伦理和社会问题上,Google 也放松了要求。

在 Google 内部,有一个 AI 道德研究团队,他们会探索、确立、评估 AI 所带来的风险。

他们有权利直接为一项技术打上红色标签,未能通过测试就暂时不去面向公众。

▲ Google 前 AI 道德团队研究员 Timnit Gebru 图片来自:Bloomberg

Google 在 2021 年也承诺为 AI 道德研究团队扩充,并投入更多的资源,以钳制技术研究人员的逐利。

但有意思的是,该团队的领导人一直在更换,并且也在去年经历过一轮裁员。

目前 Google AI 相关技术研究人员要比道德安全团队多出 30 倍。

甚至在 ChatGPT 抢尽 AIGC 行业风头之后,Google 也开始动摇,道德团队的人员被告知不要阻挠或者「杀掉」正在开发的的任何生成式 AI 工具。

而在经历内部测试,收到了不少「质疑」之后,Google 面对微软和 ChatGPT 的商业压力,最终也选择以「实验产品」的名义对外发布。

因为在一些统计调查里,实验产品即便有着缺陷,也更容易被大众接受。

并且一些员工也认为新技术尽快公布于众,可以快速获得反馈,能够更快的更迭改进产品。

实际当中,在 Bard 发布之后的相当长时间内,Google 也只进行了一次更迭,为其增加了数学逻辑的修改。

至于一些敏感围栏、敏感主题是否有改变和优化,并未有提及。

Bard 在每日一变的 AI 浪潮里似乎也正在被边缘化。

马斯克:ta 必须要监管

有趣的是,几乎与 Pichai 的访谈前后脚,马斯克也在 Fox 新闻上谈到了 Google。

马斯克与 Google 创始人 Larry Page 曾经是密友,Page 甚至买了 10% 的 SpaceX 股票,还想跟马斯克一起去火星玩沙子。

但在 2014 年,Google 收购 DeepMind 后,二人对 AI 的看法发生了分歧,并最终不相往来。

同年,Page 在 TED 演讲中表示,他的终极目标是建造一个超级数字人工智能,称之为「数字之神(digital god)」。

而对于这个想法,Pichai 在《60 分钟》的采访中,并没有否认,也没有认同。

反而他只表示,Google 将会在 5 月 10 日举行的开发者 I/O 大会发布新的 AI 产品。

而马斯克对于「数字神」有着清晰的认知,Google 有着世界接近垄断的高性能计算机与人工智能团队,也最有可能达成所谓的「数字之神」。

但公司领导人 Page 却丝毫不关心 AI 所带来的安全问题,这对于世界来说,相当危险。

这也是他最近在看到 ChatGPT、新 bing、Bard 喜欢胡说之后,想要入局,并推出一个名为 TruthGPT 的类似产品。

另外,马斯克也在呼吁各国各组织出台相应的政策来限制当下 AI 的一些出格行为。

由于生成式 AI 的特性,他的数据来自于互联网论坛、论文、网站等方方面内容,由于这些数据没有脱敏,不严格限制,很容易产生有风险、有害或者不准确的言论。

另外,随着当下 AIGC 行业的火热,入局者犹如淘金一般,仿佛人工智能正在进入一个新的发展阶段。

但目前大规模模型、高算力的工业生成方式,也让 AI 很容易被大公司垄断。

当他们内部难以权衡逐利还是维持安全,就很容易在 AI 取向上犯错,造成不可挽回的后果。

纵使马斯克在 AIGC 上有着一丝私心,但在一些大是大非上,马斯克的确要清醒不少。

能力越大,责任越大

Google Photos 会利用 AI 识图进行标记,帮助用户梳理图片进行分类。

这算是 Google 比较早的一个 AI 应用,即便 Google Photos 调整了免费容量,但它仍然是我最常用的一个 App。

但在 2015 年,Google Photos 误将黑人软件开发者和他的朋友的图片标记为「大猩猩」。

比较正常的反应应该是道歉,并重构算法,逐步修复这个识别错误。

但 Google 却选择了将「大猩猩」、「黑猩猩」和「猴子」等搜索结果全部删除。

而如今面对 Google Bard 出现的问题是,Google 仍然没有承担责任的意味,同样还是选择了轻视。

为了能够追赶 ChatGPT,Google 内部存在的 AI 道德团队并没有对其进行全方位的评估,仅进行了敏感主题的研究,便最终匆忙推出。

彭博也引用一位前 AI 道德团队高管的评价,认为 Google 对于发展尖端 AI 还是发展有道德底线的 AI 一直存在着争议。

其实在 AIGC 行业内,不止是 Google,金融时报也曝出,微软、亚马逊等科技巨头都在大规模的裁撤 AI 伦理团队。

仿佛在 AIGC 高速发展,互相竞争的当下,AI 伦理、AI 安全已经影响到了他们互相追逐的枷锁。

就如斯坦福大学研究人员的报告里所言,AI 行业的快速发展,已经从学术转向了工业化,在商业利益的诱惑下,各种 AI 正在涌现,但背后所带来的伦理道德、安全、敏感、有害等信息却逐步被忽视。

大公司们也变得不愿去承担更多的社会责任,仅在法律法规的边缘上徘徊,如此最终可能会给社会和 AI 行业带来深远的影响。

目前多个国家和地区,甚至是一些公司和组织,也正在积极研究制定一些规则来限制 AI 无节制的发展。

也正如前福布斯中文版副主编尹生所言:「大公司必须做得比用户和法律要求的更多,因为你创建了一个新世界,并从中获益,你必须帮助整个社会学会如何治理它,如果你不主动做,社会就会接管过去。」