‘壹’ 软件是如何开发出来的
软件开发流程
先上一个软件开发的整体流程图,这就是大名鼎鼎的“瀑布模型(Waterfall Model)”。据说由温斯顿·罗伊斯(Winston Royce)在1970年提出。
1、环境部署
准备服务器,部署操作系统、软件环境、安全软件、FTP服务器等。数据库和应用可分开布置在多个服务器,也可布置在同一服务器。
准备网络,分为内网和外网。外网需要购买公网IP和域名。
负责人:网络管理员
2、软件开发
包括开发语言选择、架构设计、数据库设计等工作,并进行编码、编译、测试、打包。
负责人:程序员
3、软件部署
将程序文件上传到服务器,进行部署、配置,成功后即可通过客户端访问项目。
负责人:软件实施
软件开发阶段
下面以java语言开发为例,简单讲讲程序员是如何进行软件开发的。
(本部分参考了“软帝在线”公众号、博客园“架构与我”的文章)。
1、新建java文件(或工程)
java源代码本质上就是普通的文本文件,可以用txt等工具编辑java代码(程序员一般采用源代码编辑工具,如:Notepad++;或集成开发工具IDE,如:Eclipse)。txt编写后需将文件扩展名改成java。
2、编写代码
以“Hello World”举例编写代码:
public class HelloWorld {
public static void main(String[] args) {
System.out.println("Hello World");
}
}
该程序表示的意思是输出Hello World这样一段话。
3、编译程序
Java程序之所以能做到跨平台运行,是因为Java程序运行在JVM中的,然而JVM只能够识别字节码文件,而不能直接识别Java文件。所以需要先将Java文件编译成字节码文件,即class文件,然后字节码文件才能够在JVM中运行。
编译文件,可以通过手动执行Dos命令javac,或直接用编译器如Eclipse完成。
4、运行程序
可在Dos命令窗口中输入java命令,按回车,输出Hello World;
或在编译器的控制台中看到输出结果。
5、单元测试
单元测试(模块测试)是开发者对编写的一小段代码,检验一个很小的、很明确的功能是否正确。
通常采用JUnit框架(多数java开发环境已集成)进行测试,即所谓白盒测试,叫“白盒”是因为程序员知道被测试的软件如何(How)完成功能和完成什么样(What)的功能。
测试通过后,就完成了软件开发阶段,可以打包部署了。(IT售前圈)
‘贰’ chat- cgt是什么
ChatGPT(对话生成技术)是一种机器学习技术,可以根据输入的文本,自动生成高质量的文本输出,它能够模仿人类的塌掘对话行为,使机器能够与人类进行自然的对话。
ChatGPT技术的出现,确实会对底层程序员的就业有一定的影响。
由于它可以自动生成高质量的文本输出,传统的底层程序员慧御,尤其是一些编写文本信息的底层程序员,将会受到一定程度的影响。
同时,ChatGPT技术也可以用来自动生成文本,这将会对某些文本编辑和撰写的底层程序员造成影响。
然而,ChatGPT技术也不是完全取代底层程序员的技术。
它可以模仿人类的对话行为,但也有很多不足之处,尤其是它在输出质量上的不足。因此,底层程前衫岩序员仍然有必要进行校对、修改、编写等工作,以保证文本的高质量。但不会导致底层程序员全面失业。
自动化技术,包括人工智能,一直以来都在改变劳动力市场,导致一些工作被自动化,而另一些工作需要更高级别的技能。
因此, ChatGPT 的出现可能导致一些具体的程序员工作需求减少,但同时也会带来新的工作机会,例如人工智能开发、数据科学、以及相关的领域。
此外,人工智能需要大量的高质量数据、高级算法以及深入的人工智能知识才能构建和实施。因此,即使在自动化技术的影响下,仍然需要高级程序员来开发、部署和维护人工智能系统。
因此, ChatGPT 的出现不会导致底层程序员全面失业,但可能对一些具体的工作造成影响,需要程序员通过不断学习和提高自己的技能来应对这些变化。此外,ChatGPT技术并不能完全取代底层程序员的所有工作,而只能取代其中的一部分,因此它不会导致底层程序员的大规模失业。
总而言之,ChatGPT技术确实会对底层程序员的就业有一定的影响,但是不会导致底层程序员大规模失业。
底层程序员仍然需要运用其他技能,进行校对、一方面,ChatGPT可以帮助底层程序员完成重复性的任务,减少他们花在这些任务上的时间,使他们有更多的时间和精力去完成更加复杂、更有挑战性的任务。
另一方面,ChatGPT也可以为底层程序员提供支持,帮助他们快速解决问题,使得项目的开发效率大大提升,为企业的发展做出积极贡献。
此外,借助ChatGPT,底层程序员可以更加容易地接触到新技术,从而更好地掌握专业知识,提高职业技能水平,为企业带来更多的利益。
总之,ChatGPT的出现不会导致底层程序员失业,反而会给他们带来更丰富的工作内容。
‘叁’ 18年后,无人幸免
1
AI,真的觉醒了?
人工智能,会苏醒吗?
这是一个古老而又新奇的话题。
“ 深度学习 ”天生的 不可预测 ,加深了这种忧虑。
“ 神经网络 ”的 生物性类比 ,让“AI黑匣子”更让人担心。
最近,一个谷歌工程师再次引爆该话题:AI觉醒了?
2022年6月 ,谷歌工程师 Lemoine 表示,自己在与AI“ LaMDA ”聊天中,发现了后者的回答已经 高度人格化 ,认为该AI已经“ 觉醒 ”。
为此,Lemoine写了一篇长达 21页的调查报告 ,试图让高层认可AI的人格。
不过,谷歌高层暂未表态,希望获得更清晰的认定。
但Lemoine仿佛化身科幻电影主角,他没有放弃,将自己和AI的 聊天记录 公布于众,引发轩然大波。《 华盛顿邮报 》跟进报道后,更是在全球炸圈。
AI真的觉醒了吗? 争议不断。
不管真相如何,有一点可以肯定:
因为 深度学习 和 神经网络 的加持,人工智能已经越来越“ 不可捉摸 ”。
2
那一夜,人类安然睡去
关于AI觉醒,让人想起了6年前的另一件事。
2016年3月13日 ,人类和AI在围棋上进行一场 智力的终极较量 。
在此之前,AI与人类较量屡屡得手。
但人类认为, 围棋是AI不可突破的天花板 。
因为可测宇宙原子总数约为 10^80 ,而围棋走法有 2.08*10^170 ,AlphaGo不可能依靠 计算量 和 算力枚举 来获胜,那么,拥有创造力的人类,怎么可能败给AI。如果围棋上败给了AI,那么说明它已经完成了“ 图灵测试 ”。
然而,前三局,李世石 一败再败 ,全世界震惊了。
第四局,李世石判断黑空中有棋,下出白 78挖 。李世石这史诗级的“ 神之一手 ”,体现了人类巅峰的 直觉、算力和创造力 。这也是人类 最后的尊严之战。
当年一个作者写下上段内容(有修改),并提到“ 23年后,无人幸免 ”,科学家建立了一个数学模型,判断 2040年 人工智能可能会达到普通人的智能水平,并引发 智力爆炸 。
面对越来越普遍的AI, 机器即将代替人类,AI正在迅速扩张 。
五年过去了,人类朝着“黑客帝国”大步迈进。
那么 18年 后,真的 无人幸免 ?
3
AI的另一面:不够稳定
以上两件事,本质上都是对 AI觉醒 的担忧。
一个拥有 自由意志 的AI不可信,最终会威胁到人类。
霍金 警告人类要正视人工智能带来的威胁。
比尔·盖茨 认为人工智能是“召唤恶魔”。
《 2001太空漫游 》中,超级电脑 HAL9000 在宇宙中将人类无情抹杀。
《 黑客帝国 》中,人类被AI禁锢在 矩阵 之中。
不过,实事求是地讲,对AI觉醒的不可信,仍然只是人类臆测。
虽然科幻电影里描写得残酷冰冷,也还没有得到普遍证实。
但AI的另一个“不可信”,却是真实存在的。
它不是太聪明太智慧或者产生意识,而是不够稳定 。
这种不稳定,产生的后果才真的“瘆人”。
关于人工智能“ 失灵 ”的例子还有很多很多,这是AI 不够沉稳 的一面。
这才是实实在在“ 不可信 ”的地方,也是AI对人类真正的威胁。
我们不愿意看到 AI 的 “觉醒”, 但更不能接受 人工智能 的 “轻率” 。
4
人类需要的是一个可信的AI
所以,人类需要一个“ 可信AI ”。
AI是聪明还是愚蠢,也许并不重要。
AI是进化还是退化,可能暂时只是一个伪命题。
人类需要的是一个可靠的助手,一个值得信任的机器助理 。
我是你的创造者,你得听我的吧,不能瞎捣乱。
阿西莫夫在七十年前就提出了“ 机器人学三大定律 ”:
这是人类在 AI伦理 思考中的方向。
可以把它称为是 人工智能 社会 的道德准则 。
对于人类来说,可信,才是我们对AI最重要的需求。
如果从“ 贝叶斯-拉普拉斯 ”定理开始溯源人工智能,目标是解决“ 逆向概率 ”问题,其实本质就是解决AI的 可信赖度 。
如果不能做到可信,AI就有可能反噬人类。
最起码AI与我们相伴要保证人类两点: 生命安全 与 财产安全 。
以 自动驾驶 为例,如果人工智能以准确率为 99.99% 概率推算, 0.01% 的失误率依旧会让人心惊胆战。如果未来城市有 一百万辆 自动驾驶 汽车 ,即便是 0.01% 的失误率,对人类生命安全造成威胁的隐患车辆仍有 一百辆 。
如果我们不能拥有可信AI,我们自然无法确定,人工智能给我们带来的到底是技术的进步,还是无数潜在的威胁。
但实际上 它才是人工智能领域最有价值的航灯,也是现在 科技 公司追求的方向 。
5
什么是可信AI,
这16个技术小哥在做什么?
所以,什么是可信AI?
可能很多人还不知道,先得把这个定义弄清楚。
我们可以先看一档节目《 燃烧吧,天才程序员2·可信AI 》。
这款综艺节目第一季在 豆瓣评分8.0 ,让人脑洞大开。
在第二季中,1 6个AI技术小伙 分为四个团队待在“小黑屋”中 四天三夜 ,完成 60个小时 任务挑战。
比赛中,他们需要与“ 黑产 ”进行无数次较量,培养出与帮助人类的“可信AI”,打败“黑产”,最终决出 最强团队 。
关于程序技术的综艺节目,在中国乃至世界都非常稀缺 。
一方面程序与代码本身过于硬核,普通人难以理解。
另一方面则是节目脚本设置冲突相比其他综艺要更难一些。
但《燃烧吧,天才程序员2·可信AI》通过“ 反诈骗 ”这一实际场景需要,以此构建起节目的比赛逻辑。
16个AI技术小伙需要直面欺诈交易识别、联合反诈等关卡的挑战 。
通过AI与攻防互相协作,覆盖反诈全链路。
比赛之中,程序员们通过创造“可信AI”,完成“ 科技 反诈”。
哪一个团队产出的 算法和模型 在数据的 识别准确率 和 覆盖率 更好,就能赢得比赛胜利。
虽然不如《 黑客帝国 》那般深刻宏大,也不如《 人工智能 》那样发人深省。
但《燃烧吧,天才程序员》却通过 真实的应用场景 ,解决现实生活存在的实际问题。
当你看完整个节目时就会明白,原来这就是可信AI:依照 现有数据 构建 智能模型 ,非常稳定地解决 现实难题 。
可信AI的 技术应用范围 非常广泛, 反诈 是其中一个重要应用场景。
可信AI没有那么遥远,它近在咫尺。它也没有那么神秘,很多时候它就是你身边的小助理。
当前基于 神经网络 的AI技术非常酷,同时占据AI话题至高点,以创造力和神秘性提供太多想象空间,也是许多AI技术员仰视的圣殿。但它面临的问题也非常多: 具有不可解释、鲁棒性差、过于依赖数据等缺陷,隐藏着许多潜在危害 。
而可信AI的存在,就是为了解决这些“ 信任危机 ”问题。
如果说基于 神经网络 的AI技术有着 强烈的理想主义 ,那么基于 大数据整理 的AI技术则是一个 脚踏实地的现实执行者。
6
可信AI的技术特点
要真正了解可信AI对人类的帮助,需要从技术底层入手。
可信AI有四大技术特点:鲁棒性、隐私保护、可解释性、公平性 。
01
鲁棒性
鲁棒性指 在异常和危险情况下系统生存的能力和算法稳定 。
1、前者指的是 系统抗打击的能力 ,如计算机软件在 输入错误 、磁盘故障、 网络过载 或恶意攻击情况下,能否 不死机 、 不崩溃 。打个比方,如果把一个 AI模型 比喻成 万里长城 ,那么其鲁棒性便是长城在面对恶劣天气(如台风)、自然灾害(如地震)时,人工轰炸时仍然可以做到 不轻易倒塌 。
2、后者指的是 AI模型中算法本身的稳定性 ,如果添加扰动的熊猫照片,轻易就绕开了AI模型的“眼睛”,则说明其鲁棒性比较差;比如在 欺诈交易 中,由于 作案手法 不断升级,可能导致基于既往数据训练的模型,面临着新风险数据带来的 稳定性考验 ,需要 不断迭代 来保障模型的 分析和识别能力 。
以 支付宝 为例。支付宝每天都有 上亿笔交易 ,其 对抗的不是散户,而是专业的黑产团伙 。他们可能有两种攻击方式:
为了保障资金安全,蚂蚁集团引入“ 博弈智能攻防 ”技术,该技术具有对 风险知识 和 模型 的 提前模拟、提前训练、提前补防 的能力。应用该技术的AI模型鲁棒性有大幅提升,实现“ 左右互搏 ”,既能够更智能地“攻”,也能更安全地“防”。
02
隐私保护
传统的数据保护方法客观上形成了“ 数据孤岛 ”,影响了如医疗、金融等领域的协同作战,也制约 AI 技术以及行业发展。
所以, 拓展数据价值的隐私计算技术,对实现“数据不动价值动”显得尤为重要 。
在AI领域, 联邦学习 作为一种新的机器学习模型和算法,就是为解决数据孤岛问题而提出的。在保证每个参与方不泄露原始数据,即 数据不出域 的前提下,用多方的数据联合建模,实现数据 可用不可见 ,进而实现“数据不动价值动”。
03
可解释性
人类对一切未知的东西,始终都会有一种莫名的恐惧。
如果人工智能的行为无法进行解释,只有结果没有过程,那么它就像是一个盲盒,你永远不知道放出来的是“阿拉丁”,还是“潘多拉”。
AI 模型是许多重要决策的重要依据,在很多应用里它的思考过程不能是黑盒 。
人类希望知道模型 背后的逻辑 、收获新的知识,并在它出现问题时踩好刹车,确保 AI 思考的过程和结果 合规合法 。
这背后需要 数据驱动 与 模型推理能力 结合起来,产生 可解释的结果 。
04
公平性
AI公平性是可信AI的重要组成部分。
只有实现“ 公平性 ”,才能真正推动技术 造福 于整个 社会 。
一方面,公平性需要重视 弱势人群 、兼顾 落后地区发展 ,在重视 社会 伦理原则下进行 AI 调优 ,通过 AI 技术,让老年人、残障人士、欠发达地区用户,享受到 数字经济时代 的价值。
另一方面,公平性要思考如何从技术上思考如何减少算法、数据等因素可能带来的 AI 决策偏见 。
鲁棒性、隐私保护、可解释性、公平性 。
这是可信AI的 四大基本原则 。
今天,发展可信AI,已经成为 全球共识 。
特别是对于领先的 科技 公司来讲,他们是要服务用户且不能犯错误的。
微软 、谷歌、 蚂蚁 、京东、 腾讯 、旷世等 科技 企业,都在积极开展可信AI的研究和 探索 。
其中,蚂蚁在可信AI上已有很多 技术优势 ,自 2015年 开始投入研究起,已经完成了 长达7年 的 可信AI技术积累之路 。
据 2021年 权威专利机构 IPR daily 发布的《 人工智能安全可信关键技术专利报告 》显示,蚂蚁集团旗下的 支付宝 在该领域的 专利申请数 和 授权数 ,均位列全 球第一 。
7
可信AI的应用 探索
基于可信AI的以上特点,应用场景多种多样。
AI在 医疗 、教育、 工业 、金融等多个领域的广泛应用,算法安全性、数据滥用、数据歧视等问题也层出不穷。当前AI技术的 主要矛盾, 已经转化为 人们对AI日益增长的应用范围需求和AI不可信不够稳的发展之间的矛盾 。
2018年,IBM开发了多个AI可信工具,以评估测试人工智能产品在研发过程中的公平性、鲁棒性、可解释性、可问责性、价值一致性。之后IBM将这些工具捐献给Linux Foundation并成为了开源项目,帮助开发人员和数据科学家构建可信、安全、可解释的人工智能系统。
作为可信AI领域的先行者之一,蚂蚁也做了不少 探索 。
蚂蚁的可信AI技术应用最好的实践结果是,自研了一套 智能风控解决方案 ,定名 IMAGE 。这套技术体系实现了用可信AI技术保障风控业务安全的问题,且达到了非常好的效果。
它能将支付宝 资损率 控制在 千万分之0.098, 解决了 风控场景 中的诸多 世界难题 。
还有一个例子,是支付宝的“ 叫醒热线 ”——从系统识别到用户遇到诈骗风险,到AI机器人向用户呼出“ 叫醒电话 ”,它能把整个过程控制在 0.1秒 内 。
蚂蚁集团基于可信AI的IMAGE风控体系
另外在可信AI的公平性方面,蚂蚁也有自己的实际应用。
目前业内广泛使用的“ 图形滑块验证码 ”一直是视障人群接入数字化服务的巨大障碍。但许多 APP 为了防范机器批量操作,又不得不保留验证码服务。
为此,蚂蚁开发了一套“ 空中手势 ”验证码方案,可以利用“ 行为识别 ”技术帮助视障群体通过“ 验证码 ”关卡。
可信AI的应用 探索 ,并不会让AI技术失去它的可能性。
它更像是一种伦理规范的约束条约,让AI在正确的轨道上前行 。
8
18年后,人类真的无人幸免?
让我们回到一开始的问题。
AI真的会觉醒吗?
一百年前的人类,很难想象我们如今生活的这个高度数字化世界 。
那么,一百年后,人工智能会发生什么变革,我们真的无法预测。
但AI对人类是福是祸,是一个攸关人类命运的重要课题。
按照现在AI发展的模式来看,未来的AI可能会分为两大派:
一派是自我独立的智能AI,一派是追随人类的可信AI 。
当然,还有人在问,AI真的会存在 独立意志 吗?
这要看从科学上如何去解释,一个AI系统是可以“坎陷”到具有“ 自我意识 ”的状态,差别只在于“坎陷”的深度和鲁棒性,这可以解释AlphaZero为什么能够自我“坎陷”到围棋大师,如果再 “ 坎陷 ”下去呢? 这 一派AI,可能会对人类造成我们认定的“威胁” 。
另一派AI,即可信AI,它们会在 四大基本原则 的架构中不断完善自我 ,帮助人类解决更多实际问题,成为人类可靠的助手,并与人类共存共生 。那么,它们会一直帮助和保护人类吗?
但无论未来如何发展,不同的技术方向或许带来不同的悲剧或者喜剧,但有一点可以确定:
AI技术在四面突击,不论是可信AI还是智能AI,最终会落地深入到我们生活的方方面面 。它会渗透到世界的每一个角落,在很多方面取代“无用之人”。
不管我们如何担忧,AI只会变得越来越强大,而人类的进化又显得如此龟速,甚至退化堕落。
那么, 18年后,有多少人可以幸免?