目前,使用人工智能技术时,还有哪些障碍?

现在科技如此发达,想知道在人工智能方面还存在待解决的问题呢?

共 1 个回答

切换为时间排序
父100号

2020-10-30 07:12:55



下面我们列举了人工智能技术及其应用目前存在的五大局限,以及与之对应的解决方案:
1、需要大量的数据标记
大多数现有的AI模型都是通过“监督学习”训练而成的。这意味着人类必须对样本数据进行标记与分类,但这一过程很可能存在一些难以察觉的错误。强化学习与生成式对抗网络(GAN)是解决这一问题的两个重要手段。

强化学习。强化学习是一种无监督学习的方法,它允许算法通过反复试验完成学习任务。有点像是“胡萝卜加大棒”的简单训练方式:即对于算法在执行任务时所做出的每一次尝试,如果其行为获得成功,则给予“报酬”(例如更高的分数); 如果不成功,则给予“惩罚”。经过不断重复,使得学习环境能够准确反映现实情况,从而提升模型的效能。目前这一方法已经广泛应用于游戏领域,AlphaGo就是一个典型例子。此外,强化学习还拥有在商业领域应用的巨大潜力,比如,通过构建一套人工智能驱动型交易组合,从而在盈利与亏损之间学习发现正确的交易规律; 比如,打造产品推荐引擎,以积分方式为销售活动提供决策建议; 甚至以按时交付或减少燃油消耗作为报酬指标,开发运输路线选择的软件等等。

生成式对抗网络。生成式对抗网络是一种半监督学习的方法,通过两套相互对抗的神经网络,不断完善各自对同一概念的理解。以识别鸟类图像为例,一套网络负责正确分辨鸟类图像,而另一套网络则负责生成与鸟类非常相似的其它图像对前者进行迷惑。当两套网络的表现最终趋于稳定时,其各自对鸟类图像也拥有了更为准确的认知。生成式对抗网络能够在一定程度上降低对数据集数量的要求。举例来说,通过训练算法从医学图像当中识别不同类型的肿瘤时,以往科学家们往往需要从人类标记的数百万张包含特定肿瘤类型或阶段的图像当中提取信息并创建数据集。但经过训练的生成式对抗网络就可以通过绘制逼真的肿瘤图像,从而训练肿瘤检测算法,在此基础上将小型人类标记数据集与生成对抗网络的输出结果相结合,快速完成学习。

2、需要海量的数据集
目前,机器学习技术要求训练数据集不仅包含人工注释信息,同时在体量上也需要够大、够全面。而深度学习也要求模型能够对成千上万条的数据记录进行学习,才能获得相对理想的分类能力; 甚至在某些情况下,其需要学习的数据要达到数百万条才能实现与人类相近的判断准确率。举例来说,如果希望让自动驾驶车辆学会如何在多种天气条件下行驶,就需要在数据集当中输入可能遇到的各类不同环境条件。然而,在现实应用中大量数据集往往很难获取。

对此,一次性学习(One-shot learning)是一种能够减少对大型数据集需求的技术,只需要利用少量现实的演示或示例(在某些情况下甚至只需要单一示例)就可以完成学习,快速掌握新技能。如此一来,人工智能的决策行为将更接近于人类,即只需要单一的样本就可以精确识别出同一类别的其它多种实例。具体而言,数据科学家们首先会在变化的虚拟环境中预先训练出一套模型,使其能够利用自身的知识顺利找到正确的解决方案。一次性学习通常被认为是计算机视觉中的对象分类问题,旨在从一个或仅少数几个训练图像中学习关于对象类别的信息,并且已经成功应用到包括计算机视觉和药物研发在内的具有高维数据的领域。

3、“黑匣子”问题
可解释性对于人工智能系统绝不是什么新问题。随着深度学习的逐步普及,其应用范围将不断扩大。但这也意味着,更为多样化以及更前沿的应用往往存在着更严重的不透明问题。规模更大、复杂度更高的模型使得人们很难解释计算机作出某项决策的原因。然而,随着人工智能应用范围的扩大,监管机构将对人工智能模型的可解释性作出严格规定。对此,目前有两种新的方法用以提高模型的透明度,分别为与模型无关的解释技术(Local Interpretable Model-Agnostic Explanations,简称LIME)与关注技术(attention techniques)。

LIME方法是在一套经过训练的模型当中,确定其作出某个决策过程中更多依赖的那部分输入数据,并利用可解释代理模型对此进行预测。这种方法通过对特定的数据区段进行分析,并观察预测结果的变化,从而对模型进行微调,最终形成更为精确的解释。关注技术(attention techniques)则是对模型认为最重要的输入数据进行可视化处理,并分析这部分数据与所作出决策之间的关系。

除此之外,还有另一种方法——广义相加模型(简称GAM)(简称GAM)。线性模型简单、直观、便于理解,但是,在现实生活中,变量的作用通常不是线性的,线性假设很可能不能满足实际需求,甚至直接违背实际情况。广义加性模型是一种自由灵活的统计模型,它可以用来探测到非线性回归的影响。通过对单特征模型的利用,它能够限制不同变量的相互作用,从而确保每项特征的输出更容易被加以解释。通过这些方法,我们正在慢慢揭开人工智能决策的“神秘面纱”,这一点对于增强人工智能的采用范围具有极为重要的现实意义。

4、学习模型的“通用性”
与人类的学习方式不同,人工智能模型很难将其学习到的经验举一反三。因此,即使在相似度很高的案例中,企业也必须多次投入资源来训练新的模型,而这就意味着新的成本。解决这个问题其中的一种的有效方式是迁移学习。即把一个领域(即源领域)的知识,迁移到另外一个领域(即目标领域),使得目标领域能够取得更好的学习效果。在人工智能领域,就是通过训练人工智能模型完成某项任务,并将其迅速迁移至另一项类似但有所不同的任务环境中来实现“举一反三”。随着迁移学习的逐步成熟,其将能够帮助企业更快构建起新型的应用程序,并为现有的应用程序提供更多功能。举例来说,在创建虚拟助理时,迁移学习能够将用户在某一领域(例如音乐)的偏好推广到其它领域(例如书籍)。再比如,迁移学习还能帮助石油天然气生产商,扩大AI算法训练规模,从而对管道及钻井平台等设备进行预测性维护。另一种方法,是利用能够在多个问题当中应用的广义性架构。譬如DeepMind在AlphaZero当中就设计了一套对应三种不同游戏的架构模型。

5、数据与算法中的“偏见”
如果输入的数据掺杂了人的偏好或者某些数据被忽略、某些数据被偏重,那么就有可能使得算法结果存在“偏见”。在具体的应用中,有可能造成错误的招聘决策、不当的科学或医疗预测、不合理的金融模式或刑事司法决策,甚至在法律层面引发滥用问题。但是,在大多数情况下,这些“偏见”往往难以被察觉。目前,业界正在进行多项研究工作,从而建立最佳实践以解决学术、非营利与私营部门所面临的这一实际问题。企业应该如何击中“移动中的标靶”要解决上面提到的这些局限性难题,我们还有很长的路要走。然而,事实上,人工智能面临的最大局限可能在于我们的想象力。

共 1 条
  • 1
前往
66回答数