新智元编译
来源:nextbigfuture
编译:大明
【新智元导读】DARPA无人车挑战赛催生了一系列无人驾驶人才和公司,如今,DARPA又发布了量子计算挑战赛,给出四大命题,号召研究人员用量子计算解决机器学习问题。量子计算和机器学习牵手将是怎样一番盛况?先来看这四大挑战。
量子物理学先驱人物理查德·费曼在提出量子计算的最初设想时,就是要解决当时的科学无法解决的难题,例如:在量子物理学、量子化学和材料学领域的很多问题,使用经典计算平台几乎是无力解决的,但利用量子计算机的运算速度和海量数据处理能力,就可以为这些问题成功建模。
目前,DARPA正在挑战这一领域,研究并描述当前和下一代量子计算机的本质,以理解复杂的物理系统,改进人工智能和机器学习算法,弄清量子计算可以在哪些方面解决现在的科学和技术难题,从而逐步让费曼的设想变为现实。
将数量有限的量子计算机与现有的量子传感器或经典计算资源相结合,很可能产生一些新功能。比如可以对分布式传感器上的量子数据进行聚合,将量子计算机的性能提升至超乎想象的水平。
用于处理量子数据问题的一些方法也可能适用于经典计算机。无论是算法层面,还是在数据的读取、存储和传输协议上。这些“受量子启发”的处理方式和算法在处理效率和处理速度都有很大提升。
然而,要想真正有效地利用量子计算来解决现实问题,尤其是机器学习/深度学习问题,目前仍然存在许多挑战。量子计算本身存在固有的根本性局限。此外还包括在机器学习开发中,如何将传统算法和设备与量子计算相结合,如何解决数据和资源在经典/量子设备间的交互和传输问题等。
DARPA发布量子计算四大挑战
挑战1:量子计算存在的根本性局限
我们对量子计算的定义没有任何限制。它可以是物理或逻辑量子位的集合、量子退火机,量子计算液等,或者可作为待建模的系统的代理的其他量子仿真平台。
如何解决可扩展化的问题。我们要将感兴趣的现实问题在多大程度上映射到量子计算平台进行模拟?目前的经典计算平台和算法在多大程度上变得不够用了?使用量子计算有哪些潜在收益?
使用量子计算代理系统对物理系统进行建模时,面对的问题是什么?如何对量子状态进行初始化和读取?是否有任何新的算法可以将真实世界的量子系统映射到代理系统中?
在实验上,我们能否使用现有系统来测试我们的基本假设?比如:错误会如何随着系统规模的扩大而扩大?纠错编码算法是否真的按预期工作?所提出的量子算法是否有可能实现,计算出正确的答案,并达到预期的计算加速效果?
在建模系统的大小超过量子计算平台大小的情况下,是否能找到任何算法,包括将量子算法和经典架构相结合的方法,可以有效地将整个问题分解成为可以映射到一个或多个小型量子平台的小模块?
挑战2:面向机器学习任务的经典/量子计算混合方法
一个特别值得关注的问题是,量子计算对“第二波”人工智能 / 机器学习优化策略的潜在影响。机器学习已经在广泛的现实问题中显示出重要的价值,但数据训练时间往往很长,这取决于数据的规模和种类。而且,由于缺乏详细的分析和深度学习的理论支持,其网络设计空间需求很大。有人主张利用量子计算在子程序优化任务中使用量子加速,大大减少目前标准机器学习方法的训练时间。
DARPA的关注重点是,通过对量子/经典方法的结合,大幅改善构建高性能机器学习/深度学习解决方案所花费的总时间。
使用近期和未来量子计算设备的量子/经典混合系统,可以使用哪些方法有效地执行机器学习任务?使用这些方法是否比其他方法获益更多?运算速度的提升是怎样由可用量子资源的多少决定的?
实施这些方法时要面对哪些挑战?例如,为了连接量子资源和经典资源,必须应对哪些问题?我们能否在经典处理器和量子处理器之间有效地传输数据,真正获得运算性能上的提升?是否需要开发其他辅助技术来实施此类方法?
挑战3:量子传感器与量子计算资源的接口问题
将量子计算机和分布式量子传感器的结合起来,可以获得哪些新功能?量子计算机需要有多大以及它需要多大才能运行(例如,系统能容纳多大的两量子位门误差)?需要多少分布式传感器来衡量获益高低,这些传感器的性能水平等。
在这种方式下,可以利用哪些量子计算机平台(例如陷阱离子量子位,超导量子位等)和传感器(原子钟,磁力计等)?
挑战4:受量子计算启发,并可用应用于传统计算机的算法和流程
迄今为止,受量子计算启发产生的算法可以学到哪些系统过程?这些新的解决方案中是否反复出现了某些主题和结构?当已经证明量子方法为最优方法时,是否存在识别经典算法改进的方法?换句话说,我们能否预测这种启发?
在应对上述三大挑战的学习过程中,我们是否学到将数据输入/输出、内存和计算相结合的更优秀的经典架构?
不少科学家相信,小型的商用量子计算将在未来10年成为现实,
参考链接:
https://www.nextbigfuture.com/2018/07/darpa-challenges-describe-limits-of-quantum-computing-and-apply-qc-to-improve-machine-learning.html