返回中国电源门户网首页 | 设本页为首页 | 产业聚集 | 搜索

大数据和人工智能时代的社会情景 | 你怎么存活于大数据和人工智能结合的时代?

2017年08月30日 09:32    作者:战略前沿技术

对于那些有关方面收集到的关于我们的个人数据,我们也应该有权获得一份副本。应该用法律来规定好这些信息必须以标准格式自动发送一份副本到一处个人数据仓库,个人借助这些仓库能够对这些数据的使用进行管理(可能在专门的基于人工智能的数字助手支持下)。为了更好的隐私保护和避免歧视,未经授权使用数据的行为必须受到法律的严惩。个人能决定谁能为了什么目的而使用他们的信息,并且要使用多久。更进一步地,应当采取适当的措施来确保信息的安全存放和流通。

此外,我们需要为公民准备高效的投诉程序以及违反规定时的有效处罚措施。最终,为了创造出充分的透明度和信任,领先的科研机构应当担任数据和算法的保管者,这些数据和算法在目前规避了民主的管理。这也要求建立一套合适的行为准则,最起码任何一位能接触到敏感数据与算法的人都必须遵守这套准则——这就像是为IT界专业人士准备的希波克拉底誓词。

更进一步地,我们会要求建立一套数字化议程,为新类型的工作和数字社会的未来打下基础。每年,我们都投资数十亿美元在农业领域、公共基础设施、学校和高等院校——让工业和服务业获益。



我们需要用哪种公共系统来确保数字化社会能够成功?



第一,需要有全新的教育概念,应当更加聚焦在批判性思考、创造力、发明创新和创业精神上,而不是制造标准化的工人。

教育应当让教育对象明白如何负责任和审慎地使用数字化技术,因为公民必须清楚地知道数字化世界如何与现实世界纠缠在一起。为了有效和负责任地行使他们的权利,公民必须对这些技术有所了解,也应该对那些非法的使用有所涉猎。这便是进一步需要科学、产业、政治和教育机构确保这些知识广泛地传播出去的原因。

第二,需要有一个参与平台让人们更容易成为自雇人士,建立自身的项目,寻找合作伙伴,为产品和服务在全球做营销,管理资源,支付税收和社保缴款。

作为补充,城镇甚至村庄都可以为新兴的数字化社群设立中心(类似开放创新实验室),各种想法可以在那儿被共同开发和免费测试。由于在这些中心可以找到开放和革新的工作方式,应该能推动大规模的合作创新。政府和产业公司致力于开放数据战略,进一步让数据可供科学和公众使用,为高效的、与世界所面临的挑战同步的信息和创新生态系统创造出适合的条件。

第三,构建由公民运营的“数字神经系统”,能够为所有人开启物联网的新机遇,能向所有人提供实时数据测量。

假如我们想以更加可持续性的方式利用资源,减缓气候变化,我们需要度量我们与其他人和环境互动的正面和负面的影响。通过使用合适的反馈环,可以特定方式影响系统,通过自组织的方式让系统实现想要的结果。



为了更好地应付未来世界的复杂性和多样性,将其转化成优势,我们会需要个人数字助手。这些数字助手也会从人工智能领域的发展中获益。可以预期,在未来会有无数网络连接人类和人工智能,这些网络会按照需要而灵活地建造和重新配置。然而,为了让我们保留对我们人生的控制权,这些网络应该以分布式方式来控制。尤其在于用户必须能够依照意愿登录和退出。

 

你怎么存活于大数据和

人工智能结合的时代?

来源:社论前沿(ID:shelunqianyan)

 



【编者按】这篇文章最初以“Digitale Demokratie statt Datendiktatur”的名字出现在Spektrum der Wissenschaft(科学美国人的姊妹出版物)。作者是Dirk Helbing、Bruno S. Frey、Gerd Gigerenzer等9位著名教授(文后附作者介绍),主要论述了大数据与人工智能对未来社会经济、政治、安全、法律等相关问题的影响,讨论了数字革命和数字时代策略,并对成功实现数字社会给出具体的建议。

 

发展背景:大数据与人工智能

数字革命正如火如荼地进行着。每年我们产生的数据量都在翻倍,每分钟我们在Google搜索、在Facebook上发帖,不久我们周围的事物都将与互联网相连。据估计,在10年的时间内,将有1500亿个网络测量传感器,比人类总数多20倍,而且,数据量将每隔一段时间翻一番。许多公司已经在努力把“大数据”变成“大商机”。这将如何改变我们的世界?一切都将变得智能,我们将不仅拥有智能手机,还有智能家居,智能工厂和智能城市,甚至于出现智能国家和更智能的地球。

事实上,人工智能取得了惊人的进步,它不再是逐行编程,而是能够自主学习、从而不断发展自己。但这一切都伴随着严重的经济后果:在未来的10到20年间,大约一半的工作将受到算法的威胁。

许多专业人士,包括特斯拉汽车的埃隆·马斯克、微软的比尔·盖茨和苹果公司联合创始人斯蒂夫·沃兹尼亚克,都警告说超级智能对于人类是危险的,甚至比核武器都危险。这是危言耸听吗?

 

经济与社会的根本性变化



有一点很清楚:我们经济和社会的组织方式会发生根本性变化。我们正在经历二战后最大的变革,生产自动化、驾驶自动化之后,下一步将是社会自动化。社会站在了十字路口,这是一个很大的机会,也有很大的风险,一旦作出错误的决定,就会威胁人类一切已有的成就。

美国数学家诺伯特·维纳发明控制论之后,许多研究者设想过运用此原理控制经济和社会,但当时的技术并不足够。

而今天,新加坡便被视为“数据控制型社会”的完美示范。一个最初是为了保护公民免受恐怖主义威胁的计划逐渐影响了经济、移民政策、房地产市场和学校课程。中国也在走向相似的道路。最近,百度邀请军方加入中国脑计划(China Brain Project),这个计划涉及到在从用户处收集的搜索引擎数据上运行所谓的深度学习算法。除此之外,社会控制也在酝酿之中。据报道,能够影响贷款、求知、签证的“公民评分(Citizen Score)”将会包括人们的网络行为和社交行为。(见Spotlight on China)

西方也走在一条相似的路上,我们都在机构监督(institutional surveillance)的关注之下。2015年,英国“命运警察(Karma Police)”项目被公开,揭露了对每个人的互联网使用情况的全面监视。“老大哥”真的要成为现实了吗?

一切都以相当无害的形式开始。一开始是产品和服务的个性化建议,这些信息来自于每个人过去的搜索、购买、社交互动。理论上,用户的身份是受到保护的,但实际上,用户身份可以被轻而易举地推测出来。算法知道我们怎么做、怎么想、怎么感受,它们提供的建议合适到就像我们自己的决定一样。这实际上让我们更容易地被远程控制,我们被看透地越多,我们的选择就越不可能是自由的、不被他人事先决定的。

但它不会就此停止,许多平台正在向一种“说服计算(persuasive computing)”迈进。未来,通过复杂的操纵技术,这些平台将能够引导我们完成整个行动过程,无论是执行复杂的流程还是为互联网生产免费内容,而他们都可以从中赚取亿万美元。

 

对政治和安全的巨大影响



(一)大轻推与数据控制

这些技术在政治世界中也越来越受欢迎。政府正在大规模地试图通过“轻推(nudging)”——一种现代形式的家长制,来引导公民作出更健康或更环保的行为。新的照料型的政府不仅对我们所做的事情感兴趣,而且还要确保我们做出它认为是正确的事情。它的关键是“大轻推(big nudging)”,即“轻推”和大数据的结合。这可以有效地管理群众,而不必让公民参与民主程序。但这可以实现公平公正和建设美好世界吗?如果是这样,那么公民将被数据授权(data-empowered)的能够设计出理想的经济和社会成果的“明君”管理。

但没有人知道如何最好地运用“数据的魔力”。比如医疗保险公司尝试通过发放智能健康手环来鼓励增加运动、减少心血管疾病的数量,但这最终可能导致更多的髋关节手术。在社会这样的复杂的体系中,一个领域的改善几乎不可避免地导致另一个领域的恶化。因此,大规模的干预措施有时会被证明是巨大的错误。

无论如何,犯罪分子,恐怖分子和极端主义分子都在试图控制数据,包括五角大楼,白宫的几乎所有的公司和机构都曾被黑客入侵。

(二)内部侵蚀

在缺乏透明度和民主控制时,又出现了一个问题:系统的内部侵蚀。由于搜索算法和推荐系统可以被影响,因此公司可以对词的某些组合进行竞标,以获得更有利的结果,在选举中,政府可能会影响未决选民支持他们。如果有人控制这项技术,他会更轻易赢得选举。

现实情况可能更为严峻,在许多国家,单个搜索引擎或社交媒体平台拥有主导市场份额。这意味着,它可以影响公众并远程干预这些国家。

(三)共鸣效应

我们还能发现什么副作用呢?为了使操纵不被察觉,它需要所谓的共鸣效应(resonance effect)——针对每个人的充分个性化的建议。这样,个人倾向不断被重现,最后,你所能得到的一切都来自你自身。这导致了社会的极化,形成了难以相互理解的分裂团体,美国政治中不断分裂、无法妥协的民主党和共和党就是一例。个性化信息以这种方式破坏社会凝聚力,结果是社会分裂,甚至可能是崩溃。

同时,由于共鸣效应,社会上大规模的意见变化只能是缓慢的,这导致了滞后性、不易消除性。例如对少数族裔或移民失控的不满,以及由此导致的歧视、极端主义和冲突。

 

法律与合法性问题



更重要的是,操纵改变了我们做出决定的方式,大规模使用操纵手段可能会造成严重的社会破坏,包括在数字世界中的暴力行为。谁应该对此负责?但是这些公司违反了哪条法律呢?

首先,显然操纵技术限制了选择的自由。如果能对我们的行为进行完美地操作,我们就会是数字奴隶,因为我们只会执行别人已经做出的决定。尽管操纵技术只是部分有效,但我们的自由正在缓慢地消失,缓慢到引起不了人们的反抗。康德指出,试图决定其公民的幸福的国家是专制的。然而,自我发展的权利只能由那些掌控着自己生命的人行使,而这是以信息自决为前提的。这是我们最重要的权利,除非尊重这些权利,否则民主就无法正常运作,而如果它们受到限制,就会破坏我们的宪法、社会和国家。

另一项可能被违反的法律是关于广告的,广告必须进行标识而且不能误导,它们也不允许利用某些心理学技巧,如潜意识刺激。此外,目前广泛的收集和处理个人资料的行为当然不符合欧洲国家和其他地方的数据保护法。

最后,个性化定价的合法性是有问题的,因为它可能是对内幕信息的滥用。 其他可能被破坏的方面包括平等原则、不歧视原则以及竞争法——因为无法再保证市场准入的自由和价格透明度。

此外,在学术界,甚至决策实验(decision experiments)也必须由伦理委员会批准。在每一次实验中,有关人员都必须事先知情同意。相比之下,仅单击确认一百页的“使用条款”协议的内容是非常不恰当的做法。

尽管如此,使用轻推之类的操纵技术的实验已在数百万人身上进行,没有通知他们、没有透明度、没有伦理限制。即使是Facebook这样的大型社交网络,或是OkCupid这样的在线约会平台,也已经公开承认进行这些社会实验。如果我们想避免对人类和社会的不负责任的研究,那么我们迫切需要实施高标准,特别是科学质量标准,以及类似于希波克拉底誓言的执行准则。

 

超级智能与集体智慧



假设有一个超级智能,它具有上帝般的知识和超人的能力,那么我们会遵循它的指示吗?这似乎是可能的,但是如果我们这样做,那么埃隆·马斯克、比尔·盖茨、斯蒂夫·沃兹尼亚克和史蒂芬·霍金等人的警告就会成真:电脑会控制世界。我们必须明白,超级智能也可能犯错、撒谎、追求私益或被操纵。最重要的是,它不能与全体人类的集体智慧相提并论。

用计算机组(computer cluster)取代全体人类的思想是荒谬的,因为这会大大降低解决方案的多样性和质量。显然,尽管近来海量数据和个性化信息风行,但世界的问题不降反增!世界和平是脆弱的,气候、金融、网络环境都是脆弱的。

在快速变化的世界中,超级智能永远无法做出完美的决策(参见图1):系统复杂性要比数据量增长得快,而数据量的增长速度要比处理能力的速度更快,而且数据传输速度也是有限的。这导致对本地实际和信息的忽视,而它对形成好的解决方案是十分重要的。分布式的本地控制方法往往优于集中式方法,特别是在行为——这种高度可变、难以预测、不能实时优化的复杂系统中。对于高度网络化、全球化的社会和经济体系来说,这一点更是如此。



▲图1 数据增长(来源:Dirk Helbing)

而且,算法操纵决策还可能会破坏“集体智慧”的基础。集体智慧的发生要求个体的信息搜索和决策独立发生。但如果我们的判断和决定是通过算法预先确定的,这就会导致人们被洗脑,变为简单的接受刺激和响应刺激。

换句话说,个性化信息在我们周围建立了一个“过滤器泡沫(filter bubble)”,这是思维的数字监狱。在这种情况下,我们如何“跳出思维定式(out of the box)”? 最终,运用超级智能信息系统(super-intelligent information system)的集中体制将导致一种新的独裁统治。由此,以自由主义家长式制度(liberal paternalism)为名的自上而下控制型社会实际不过是一个披着玫瑰色外衣的极权主义政权。

事实上,大轻推的目标是把许多个体的行动一致化、操纵他们的观点和决策。将大轻推应用于宣传阵地,通过行为控制有针对性的使公民丧失某些能力,长期来看,其后果将是致命的。

但建设出更好的数字社会是存在可能的。尽管全球竞争激烈,西方国家的优势在于他们已经学会了处理多元化和多样化的问题。现在他们只需要学习如何更好地利用他们。

未来,这些西方国家将达到商业、政府和公民间的平衡。这就需要互联网思维,建立信息、创新、产品和服务“生态系统”。为了顺利发展,不仅要创造参与机会,还要支持多样化。因为我们没有办法确定优化的目标:我们应该最大化人均GDP还是可持续发展?是权力还是和平?是幸福还是寿命?通过允许追求不同的目标,多元社会可以更好地应付未来的挑战。

集中化的、自上而下的控制仅适用于低复杂度的系统,随着经济和文化的发展,社会复杂性将继续上升,因此未来的解决方案是集体智慧(collective intelligence)。而公民科学(citizen science)、众包和在线讨论平台是提供更多知识、思想和资源的重要的新途径。

集体智慧需要高度的多样性,而现在,这种集体智慧正在被个性化信息系统不断减少。

社会多样性与生物多样性一样重要。它不仅有助于提高集体智慧和创新,还有助于促进恢复力——应对意外冲击的能力。减少社会多样性会影响经济和社会的功能和表现,因此,多元化和广泛参与根本上不应被视为对公民的让步,而应被视为繁荣、复杂、现代社会的功能先决条件。

 

数字时代的策略



总而言之,可以说我们现在正处于十字路口(参见图2)。



▲图2 在数据的十字路口(来源:Drik Helbing)

大数据、人工智能、控制论和行为经济学正在塑造我们的社会,不管是向好的方向还是坏的方向。如果这种技术与我们社会的核心价值相悖,那它迟早会造成巨大的损失,可能会导致一个具有极权主义特征的自动化社会 在最坏的情况下,人工智能将控制我们的所知、所想、所做。我们正处于一个历史时刻,必须选择一条正确的路径——这一路径让我们大家都能从数字革命中获益。

所以我们在此强烈倡议所有人坚持以下基本原则:

1.将信息系统的功能去中心化;

2.支持信息自决与参与;

3.提高透明度,以实现更高的信任;

4.减少信息失真和污染;

5.启用用户控制的信息过滤器;

6.支持社会和经济多样性;

7.提高协同工作能力和合作机会;

8.创建数字助手和协调工具;

9.支持集体智慧;

10.提高公众数据素养和进行数据启蒙,以促进数据世界中公民做出更多负责任的行为。

按照这个数字议程,我们都将受益于数字革命的成果:经济,政府和公民。 我们还在等什么?

 

数字革命到数字社会



大数据和人工智能无疑是重要的创新。他们具有巨大的潜力来刺激经济发展和促进社会进步,然而,使用这些技术来剥夺公民权利是完全不可接受的。将大轻推和公民评分以极权主义的方式进行行为控制,不仅不符合人权和民主原则,也不适合于管理现代创新型社会。要真正解决世界问题,需要更好的信息和风险管理方法。有关负责任的创新(responsible innovation)和“有人文关怀的数据(Data for Humanity)”的研究可以为大数据和人工智能在改善社会方面提供指导。

我们现在可以做什么?首先,即使在这个数字革命的时代,公民的基本权利也应该得到保护。这就要求建立一个基于信任和合作的新的社会契约,使公民和消费者不会成为被剥削者或资源,而是成为合作伙伴。为此,国家必须提供适当的监管框架,确保技术的设计和使用方式与民主相适应。

首页 | 上一页 | 下一页 | 末页 当前页:2/3
网站简介关于我们友情链接联系我们
中国电源门户网站 © Powered by SiteServer CMS
京ICP备10008610号  京公网安备110102001082号