丘成桐:数学和基本科学在应用科学中的重要性
作者
Qiu Chengtong是Yanqi湖应用数学研究所院长,北京,Tsinghua University的主席,美国科学学院院士,中国科学院的外国院士;菲尔兹奖章,克拉夫德奖,狼奖,马塞尔·格罗斯曼奖得主。
以下是2022年7月14日在《数学与人文学科》上发表的中国人民大学中学中学的院士Qiu Chengtong的演讲(公共帐户:Math_hmat)。没有授权,不允许重印。
今天,我很高兴来到中国人民大学附属中学,撰写了有关“数学和应用科学基础科学的重要性”的主题报告。
我希望该国将注意基础科学和数学的发展。众所周知,在一个家庭中,父母在外面工作,以谋生,住房,饮食和穿衣为生都是每天的必需品。而且有一件事不是直接的,但是每个家庭都坚持要这样做,即对孩子的教育。儿童身心健康的健康成长是父母的渴望。即使他们知道自己必须努力工作十到二十年,但他们仍会取得成果,但他们愿意。
基础科学研究也是如此。我们继续投资于行业,希望能够快速恢复以满足社会需求;但是与此同时,我们也投资了大量基础科学资金。对于该国的独立性和长期稳定,必须进行强大的基础科学。
我记得当我是普林斯顿高级研究学院的教授时,导演曾自豪地说:“我们在这里学习的是毫无用处的学习!这些无用的学习将成为社会的摇滚和未来国家的支柱。 “高级研究研究所的第一任主任是A. Flexner。 1939年,他在《哈珀》杂志上发表了一篇文章,标题为无用知识的有用性,指出法拉第和麦克斯韦仅出于科学的好奇心研究了电磁学,然后才发现了赫兹电磁波。这些科学家并不重要地对人类社会中电磁学的应用非常重要,但是他们的工作是如此重要。这不仅是对理论科学的跨越成就,而且是对现代文明的巨大贡献。
所有麦克斯韦的方程都是在1870年代左右建造的。实际上,早在19世纪初,由于好奇心,丹麦物理学家奥斯特(Oster)已经对电力和磁性之间的关系进行了大量重要实验,并且知道电力可能会产生磁性效应。这些数据于1820年发布,导致科学界对电磁现象具有强烈的兴趣。
从1820年到1821年,法国物理学家安珀(Amper)是第一个在该领域发现重要的安培标准和安培法律的人。俄罗斯物理学家Lengz还概述了Lengz法律,以判断诱发电流的方向。
1822年,当Arago和Humboldt测量地磁强度时,他们发现金属附近的磁针的振荡具有阻尼效应。 1831年在英格兰举行的法拉第实验提供了《法拉第》电磁诱导法。根据发电的不同原因,将诱导的电动力分为动态生成的电动力和诱导的电动力。前者起源于洛伦兹力,后者起源于不断变化的磁场产生的旋转。电场。这些作品后来将成为麦克斯韦方程系统的重要基础。
1841年,德国的威廉·韦伯(William Webber)发明了具有绝对电磁单元的两线电流表,该电磁单元可以衡量地磁强度和当前强度。数学家高斯借助韦伯的作品提出了绝对的磁量单位。在1846年,他发明了一个工作率,该工作率可以衡量电流的强度并衡量交流电流的功率。他还提出了物质电磁结构的理论。 1849年,里曼(Riemann)在韦伯(Weber)的实验室中衡量了这些单位。 1856年kaiyun全站网页版登录,韦伯(Weber)和Colelausch完成了确定电力的电气单元与静电单元之间关系的测量。最终的比率是真空中的光速。因此,光学和电力将其连接在一起。这些作品使数学家高斯和里曼迷着电磁现象理论,其作品对麦克斯韦的伟大作品产生了深远的影响。这些任务的直接应用是在现代行业中必不可少的最重要工具,例如发电机,变压器,电磁流程器等。
人类的第一台电报机是由高斯和韦伯于1833年完成的。他们在各自的实验室(约一公里之外)之间建立了电报线,以通过当前的磁针的偏转来传递信息。
有一位叫莫尔斯的美国画家。当他41岁的时候,他在游轮上看到了一个魔术表演:电流可以迅速通过电线并产生磁场。他认为这是一件非常奇妙的事情,所以他决定放弃自己的绘画生涯,并致力于研究电磁电报机。到1837 - 1838年,人们已经可以使用虚线的摩尔斯摩尔斯代码来传达信息。十年后,美国国会通过了一项法案,该法案强烈支持莫斯电报项目的发展。
与莫尔斯(Morse)同时,查尔斯·惠斯通(Charles Wheatstone)和威廉·库克(William Cooke)在英国也发现了电报。 1895年,意大利马可尼(Marconi)首次成功发送并收到了无线电报。
可以说电磁学是人类历史上最伟大的科学之一。它是19世纪基础科学的中心。一群物理学家由于电磁学中有趣的现象而努力工作。它的进步受到数学家的影响,但也是深刻的。数学的指导发展!
传说是英格兰女王问法拉第,对该国进行这些电磁研究有什么好处?法拉第回答:“ je下,这些工作将大大增加帝国的税收收入!”
现在,让我们谈谈20世纪一项伟大的技术:计算机进度的发明和速度。我们知道,在当今社会中,互联网和计算机功能非常强大并且遥不可及。诸如能量分布,大数据处理物流系统,道路流量,模拟神经元和蛋白质结构等问题都需要大量改进计算能力。此功能的相当一部分取决于计算机平板电脑的存储。计算机计算功率不断增加。在过去的三十年中,有所谓的摩尔法律,也就是说,每年半,计算机的功能都翻了一番。
但是,计算机的历史可以追溯到中国的算盘,这是英国数学家约翰·纳皮尔(John Napier)使用对数建造的计算统治者。可以执行法国数学家Blaise Pascal进行的加法,减法,乘法和除法的数学机器,以及德国数学家Gottfried Wilhelm Leibniz做出的乘法和分裂。英国数学家查尔斯·巴巴奇(Charles Babbage)可以为计算程序执行差速器和分析机。
电子计算机将技术带入了一个新时代。 1930年,美国科学家Vannevar Bush在麻省理工学院建造了最早的模拟器。 1936年,英国数学家Alan M. Turing使用数学逻辑提出了计算机的理论框架。他的论文“关于数字计算在确定困难中的应用”的论文描述了一台可以帮助数学研究的机器,并使机器使象征性逻辑推理的使命。这款“ Turing Machine”为计算机和人工智能科学奠定了基础!
他的想法受到数学逻辑学家Kurt Godel,Alonzo Church和David Hilbert的深刻影响!在教堂的指导下,他从普林斯顿获得了数学博士学位。在第二次世界大战期间,他领导了世界上最早的电子计算机的开发,并成功地解密了德国密码。战争结束后,他参加了英国曼彻斯特大学的电子计算机开发。
另一位为电子计算机做出巨大贡献的伟大大师是匈牙利数学家约翰·冯·诺伊曼(John von Neumann),他曾经是希尔伯特(Hilbert)的助手,受到后者的数学逻辑的深刻影响。 1945年,基于共同讨论,他提出了一种电子计算机解决方案,该解决方案可以存储程序,介绍制造电子计算机和编程的想法,并提出一个基本思想:一台计算机由五个部分组成:操作员和一个控制器。 ,内存,输入和输出设备。
在过去的八十年中,电子计算机从原始的电子管数字机开发到晶体管数字机和集成电路数字机,再到当今的大型集成电路计算机。尽管操作系统经历了巨大的变化,但计算机仍在使用图灵和冯·诺伊曼的设计思想。
新技术产生了大量数据,而电报和现代互联网已经提供了传输大量信息的方法。但是,如何确保准确有效的传输是无法忽略的问题。在贝尔实验室,两位科学家哈里·奈奎斯特(Harry Nyquist)和拉尔夫·哈特利(Ralph V. Hartley)分别在1924年和1928年进行了定量研究。
基于这两位科学家的研究,克劳德·香农(Claude Shannon)于1948年发表了划时的论文“数学交流理论” - 成为现代信息理论的基础。
基于概率统计和几何空间,香农建立了信息理论的数学模型,并得出了重要的定量原理,以确保通信工程技术的所有链接。从1941年到1972年,他在贝尔实验室工作。他于1956年开始在麻省理工学院兼职。
后来,许多数学家应用了组合数学,图理论,数字理论和其他知识,并开发了重要的工作,例如错误校正代码和两极分化代码。
20世纪开始成功的高科技产品成功的一个重要原因是控制理论的有效应用。这是一门重要的科学,数学,计算机,通信,神经网络和语言学相交。
自动控制理论的历史悠久。实际上,在1868年,上述伟大的物理学家麦克斯韦(Maxwell)开始探索自我调节设备的理论。到1927年,Bell Laboratories的Harold S. Black使用负面反馈探索了信息控制的放大器。
1932年,奈奎斯特(Nyquist)发现了负反馈放大器的稳定性条件。 1943年,Arturo Rosenblueth,Norbert Wiener和Julian Bigelow使用数学模型来研究反馈信息的控制问题。
维纳(Wiener)在哈佛大学的19岁时获得了数学博士学位,并由贝特兰·阿沃·罗素(Bertrand Aw Russell)和戈弗雷·H·哈迪(Godfrey H. Hardy)指导学习数学。离开哈佛大学后,他一直在麻省理工学院任教,可以说是麻省理工学院工程的基础。
1942年,他过滤了具有固定随机过程的相关特性和光谱特征以解决空气射击控制的噪音信号(从那里开始酿造机)。 1945年,维纳(Wiener)将反馈的概念扩展到了通用控制系统,从受控对象的输出中提取部分信息作为下一个输入,这会影响重新输入。 1948年,他发表了两篇文章“控制论的 - 关于动物和机器的控制和交流科学”,以及“稳定时间序列的外推,插值和平滑问题”,使用过滤和预测来制定有用的信息和处理方法。
因此,控制论是诞生的!它研究了动态系统如何在不断变化的环境中保持稳定。基于微分方程,优化和概率统计数据建立了数学模型,并进行了定量研究。在维纳之后,诸如冯·诺伊曼(Von Neumann),李维(Levi S. Pontryagin)和雅克·路易斯(Jacques-Louis Lions)等数学家继续改善控制理论。
维纳过滤要求信号和噪声都是稳定的过程。在1960年代,ReKálmán和RS Bucy根据噪声的线性状态空间表示kaiyun全站app登录入口,发表了“线性过滤和预测理论中的新成就”,并提出了新的线性滤波和预测理论。处理输入和观察信号以获取系统状态的真实信息。他们不要求信号和噪声都是该过程稳定的假设。因此,卡尔曼过滤已被广泛用于通信系统,电源系统,航空航天,工业控制和雷达信号处理。
卡尔曼处理的过滤是一个线性系统。工程师通常对非线性系统采用线性近似方法,但获得的结果不准确。 Kalman后来Zakai找到了一个随机方程来解决非线性过滤问题,但遇到了数学困难。我和Qiu Chengdong找到了一种数学方法,可以求解非线性过滤,但是当状态空间尺寸较大时,计算量相对较大,并且可以通过人工智能解决。
从上述叙述中,我们可以看到,计算机和互联网在20世纪在技术中非常重要的是因为许多数学家,工程师和理论物理学家共同努力,并灵活地对基本的基本理论进行了灵活的理论数学和基本物理学将在全新的技术领域完成。
其中一些基本工作可追溯到一个或两个世纪前的好奇心,而另一些则发现在短时间内在工业中有用。这些任务非常重要,将来无法完成!
21世纪的技术也将采用相同的路线。上面提到的有关计算机存储和操作功能的摩尔定律已不再可能,几乎达到了其极限。计算机硬件设计将面临很大的瓶颈问题!但这也可以看作是21世纪主要科学技术的可能特征:一种是使用基本物理学和基本数学的原理来大力改革硬设备。另一个是大力改进软件,也就是说,找到更好的算法来绕过硬件的速度和存储功能。
让我们先谈谈第一个方法。三十年前,伟大的物理学家理查德·费曼(Richard Feynman)使用量子力学的基本原理来帮助计算量子计算的解决方案。
如果量子计算可以成功,那么每个人都会担心信息安全。毕竟,在1994年,仍在贝尔实验室中的数学家彼得·谢尔(Peter Shor)提出的量子算法可以迅速解决因子分解问题。当时,密码学界感到非常震惊,因为量子计算机将损害极其重要的RSA公共密钥密码系统。
在可见的未来中,如何改善量子计算器的硬件,开发更有效的数学算法,使量子人工智能和量子深度学习成为实用工具,实际上取决于基础科学和数学的深层组合。
RSA代表三位数学家Ronald L. Rivest,Adi Shamir和Leonard M. Adleman,他们在1977年提出了RSA加密方案。他们使用的加密方法不难乘以质量数,并且分解非常复杂。 RSA方案源自公共密钥密码系统的想法,要求键以成对出现,一个公钥和一个私钥出现。公共密钥无法得出私钥,即使泄漏者知道加密的公钥很难破解密码。这个想法是1976年由惠特菲尔德·迪克(Whitfield Diffie)和美国的马丁·E·赫尔曼(Martin E. Hellman)提出的。
除了RSA的机密性方案外,还有一个基于离散对数和椭圆曲线理论的加密系统。在Xiuer的工作之后,我们知道在量子计算机时代,一切都会被打破。因此,量子科学对现有的加密系统构成了严重的挑战。
现在,许多数学家正在开发可以抵抗量子计算机的机密解决方案。其中一种解决方案是由美国数学家Miklos Ajtai在1996年提出的,使用了晶格理论。网格理论是由高斯(Gauss)创建的,没有发现量子算法突破网格机密性。
古人说,道高一英尺,魔鬼高一英尺。有趣的是,在保留秘密的科学中,道和恶魔都是数学!
在未来的技术革命中,数学不能缺席,赢得数学家的人将赢得世界!
在2019年,IBM给了一个超导量子计算器,上面有53个QUBIT,可以在云中使用。最近,美国国家航空航天局(NASA)宣布,Google可以解决世界排名第一的峰会超级估计器只能通过量子计算在10,000年内解决的问题。中国学者和公司也正在这样做,但是它们的基本物理学和基本数学水平不如美国。在量子计算的研究和开发中赶上它们可能并不容易!
这项研究要求数学家,物理学家和工程师之间进行大量合作,许多美国著名大学的教授正在朝这个方向进行研究。在实验方面,美国公司的投资大量投资,包括IBM,Google,Microsoft和其他公司。去年,美国通过了《国家量子倡议法》。许多智囊团和政府官员认为,量子计算器就像第二次世界大战之前的曼哈顿核弹计划一样,该计划与国家安全有关,需要政府的全部支持。但是,数学理论没有突破,这是该领域许多瓶颈的起源。
我国家的人口规模是发展人工智能的优势。我们已经在人工智能技术的应用中做了很多出色的工作,并且处于世界的最前沿。但是,就基本理论和算法创新而言,仍然与美国,英国和其他国家存在差距。要在人工智能等核心技术中领先,基本理论的突破是必不可少的。
第二个解决方案的解决方案是使用数学开发的方法。现在正在研究的内容称为人工智能和大数据。
人工智能的主题是在1956年在美国达特茅斯大学举行的两个月学术研讨会上正式启动的。它以J. McCarthy,ML Minsky和Loche的名字命名。北罗切斯特(N.这些学者来自达特茅斯大学,哈佛大学,麻省理工学院,普林斯顿大学和卡内基·梅隆大学等著名大学,以及贝尔实验室,IBM和Rand。
他们讨论了机器智能的问题,该问题标志着人工智能的出现。后来,许多人工智能研究组织在美国成立了,当时所涉及的学者成为领导者。他们在机器学习,定理证明,模式识别,解决问题,专家系统和人工智能语言方面取得了杰出的成就。
但是人工智能的历史可以推向1950年!今年,图灵(Turing)发表了“计算机和智能”文章,该文章提出了“图灵测试”来测试机器的思维能力。人工智能应讨论机器中的情报,意识和能力。
同年,马文·明斯基(Marvin Minsky)与他的四年制大学同学邓恩·埃德蒙德(Dunn Edmund)建造了世界上第一台神经网络计算机。该机器的构造也可以看作是人工智能的起点。
1952年,塞缪尔(Samuel)制定了Checker Computing计划,1955年,纽厄尔(Newell)找到了经济学家西蒙(Simon)和程序员克里夫·肖(Cliff Shaw),共同撰写了人工智能计算机程序的逻辑理论,1958年,麦卡锡(McCarthy)开发了LISP的编程语言。 。
从那时起,直到1980年代,人工智能没有重大突破,并且有三个主要的技术瓶颈:
•计算机性能不足导致许多程序无法应用;
•要解决的问题要比一开始就复杂得多,并且该程序被不知所措;
•找不到足够大的数据来支持该程序的深入学习,因此机器无法读取足够的数据以供智能。
1980年,日本的Waseda大学建造了一个类人动物机器人,以与人沟通,阅读音乐分数并在电子钢琴上播放音乐。
1988年,计算机科学家Judea Pearl在智能系统中发表了概率推理,并发明了贝叶斯网络。这是一个概率图网络,它通过定向的无环图表示变量及其依赖关系。同年罗洛木匠
开发了聊天机器人。
1995年,计算机科学家理查德·华莱士(Richard Wallace)根据J. Weizenbaum发明的Eliza开发了聊天机器人爱丽丝,并添加了自然语言样本数据收集。 。
1997年,由IBM开发的Deep Blue鼓舞人心赢得国际象棋比赛。
2004年,NASA的机器人在没有人类干预的情况下导航了火星的表面。
2006年,G。Hinton在神经网络的深度学习领域取得了突破。
2014年,Google的无人驾驶汽车通过了内华达州的自动驾驶汽车测试。在2015年至2017年之间,Google Deepmind的Alphago在GO游戏中击败了人类,这使整个世界震惊。
人工智能进入了一个新时代,世界上所有的大学和大型公司都加入了这一聪明的狂热。许多学者认为,人工智能将在21世纪的科学技术方面带来巨大的飞跃!
人工智能对大数据的处理本质上是数学的统计数据。但是,目前尚无完整的数学理论来支持大数据分析的结果。许多数学方法仍然相对原始,过于依赖经验摘要,而不是真正来自内部数学结构。这也导致了这样一个事实,即人工智能在处理大数据问题时目前需要大量的人力和计算能力,甚至需要超级计算机的帮助。由于缺乏数学理论的支持,许多大数据分析的结果仅适用于特定环境和缺乏迁移。大数据也缺乏有效的算法。经典计算机的算法不能直接应用于大数据。
广泛流通的深度学习也有许多缺点(样本依赖性很大,可解释性差,对欺诈的易感性等),但是目前没有更好的算法来代替它。为了解决这些问题,有必要对相关数学理论进行深入研究,并了解大数据的固有数学结构和原理。由于计算器的速度限制,当前的人工智能只能采用多层结构来解决问题。基于简单的数学分析而不是真实的Boltzmann机器,不可能有效地找到最佳解决方案。
我的学生Gu Xianfeng,我和几个朋友几年前发现,我40多年前的一些几何作品可以应用于人工智能的理论研究。从此可以看出,基本数学在工程问题中确实很重要。
机器学习和人工智能等先进的计算方法已经在零售和娱乐等领域取得了重大突破。这些方法可能对医学和医疗保健具有深远的影响。包括美国和中国在内的全球医疗保健系统已开始数字化临床信息。
但是,如何分析和应用此信息没有良好的策略。数据科学和人工智能在未来十年中可能比所有其他技术的总和都更大。人工智能和数据科学的医学研究已成为医学和医疗保健的新领域。在这个新领域,数学和计算科学将更广泛地支持医疗决策。许多医疗保健系统中的研究人员对此并不意识到或低估了这些影响。
我们希望将最先进的计算技术应用于与医疗相关的大规模数据库,获取有效信息,并将其应用于医疗服务,临床诊断和相关医学研究。
为了更好地将人工智能和应用数学应用于医学研究和医疗保健,不同的学科需要共享和合作。数学,医学信息学,计算机科学,生物统计学和工程学对于研究工作都是必不可少的。 。
以人工智能临床诊断为例,中国是世界上最大的临床医疗数据库。我们需要学习如何管理和应用此数据。通过计算科学和人工智能,我们可以以一种全新的方式使用这些数据来推动整个领域。发展。首先,我们可以使用机器学习模型来消化更大,更丰富的数据集,同时通过机器学习的结果重新验证传统预测模型的准确性。同时,我们还可以尝试更改自然状态下的其他变量,以提高模型的准确性。此设置还允许进一步分析如何以及为什么新技术和方法更好,以及可以进行哪些数学改进。
目前,人工智能和数据科学技术已被广泛用于不同领域,例如临床诊断,手术指导和风险预测。在某些领域,计算机诊断的准确性甚至高于医生的准确性,这是一个很大的改进,对临床实践产生了深远的影响。正是这一成就进一步刺激了科学研究人员的热情。未来医学的更大变化将更多地依赖于数学理论的突破以及人工智能技术的进步,这无疑是。
数学被广泛使用,每个人都有不同的愿望,并且采取了不同的方向,可以将其大致分为以下类别:
•数据科学,张量,大数据,人工智能,机器学习;
•数值优化,操作研究及其在大型机器学习中的应用;
•量子计算,量子算法及其在机器学习中的应用;
•数值线性代数,矩阵计算及其在数据科学中的应用;
•大规模的科学计算和高性能计算,例如快速算法和平行算法,例如计算材料科学,计算量子化学,计算电磁学等;
•数值部分微分方程,有限元理论和方法,多个网格算法,(非)线性保护定律等;
•多尺度模拟;
•计算流体动力学,计算连续力学,例如复杂的流体,多孔介质渗漏开元棋官方正版下载,界面问题,地球物理流,生物流体动力学等;
•数值近似理论;
•对反问题的数值解决方案;
•计算机图形,计算的保形几何,图像处理,医疗图像处理等;
•动态系统和混乱,非线性动力学,经典和量子(非)集成系统,耗散系统等;
•随机分析,随机微分方程,不确定性量化和应用,统计计算,蒙特卡洛方法等及其在机器学习中的应用;
•数学经济学,金融数学,精算保险等;
•数学生命科学,包括生物统计学,生物信息学,理论神经科学等;
•游戏理论;
•控制理论;
•数字信号处理,编码;
•信息和通信科学;
•密码学;
•…
谢谢!