观点作者:Sapien首席执行官Rowan Stone

AI若缺乏数据管理和训练实践方面的人类专业知识,不过是纸老虎。尽管增长预测惊人,但如果继续基于劣质数据训练模型,AI创新将毫无意义。

除了提升数据标准外,AI模型还需要人类介入语境理解和批判性思维,以确保伦理化AI开发和正确输出生成。

AI存在"劣质数据"问题

人类具有细腻的认知能力,能依据经验进行推理和逻辑决策。而AI模型的表现完全取决于其训练数据。

AI模型的准确性并不完全依赖底层算法的技术复杂度或处理数据量,而是取决于训练和分析性能测试中使用的可信、高质量数据。

劣质数据对AI模型训练有多重危害:产生带有偏见的输出和逻辑错误的幻觉结果,导致需要耗费时间重新训练模型以纠正错误,从而增加企业成本。在医疗保健和安全监控领域,存在偏见和统计不足的数据会不成比例地放大AI系统缺陷。

例如: 底特律前警察局长承认,仅依赖AI面部识别会导致96%的错误识别。哈佛医学院报告显示,美国医疗系统使用的AI模型优先考虑更健康的白人患者而非病情更严重的黑人患者

AI模型遵循"垃圾进,垃圾出"(GIGO)原则——有缺陷和偏见的数据输入会产生低质量输出。劣质数据会导致操作效率低下,项目团队需要花费更多时间和成本清理数据集。

更重要的是,基于低质量数据训练的AI模型会削弱企业对其部署的信任,造成不可挽回的声誉损害。研究表明,GPT-3.5的幻觉率高达39.6%,凸显了研究人员额外验证的必要性。在CIO网络峰会上,21%的美国顶尖IT领导者将"缺乏可靠性"列为不使用AI的最紧迫问题。

劣质训练数据会使项目贬值并给公司造成巨大经济损失。平均而言,不完整和低质量的AI训练数据会导致决策失误,使公司损失年收入的6%。

人类前沿数据是关键

马斯克称"人类知识总和已在AI训练中耗尽",这完全不符合事实——人类前沿数据才是推动更强大、更可靠、无偏见AI模型的关键。

人类专业知识通过细致的数据审查和验证,确保AI模型的一致性、准确性和可靠性。人类能评估、判断和解释模型输出,识别偏见或错误,确保其符合社会价值观和伦理标准。

此外,人类智能在数据准备过程中通过语境参考、常识和逻辑推理提供独特视角,有助于解决模糊结果、理解细微差别,并为高复杂度AI模型训练解决问题。

去中心化网络可能是最终在全球范围内巩固这种关系的关键。基于区块链的去中心化机制可以自动化补偿,根据可量化的AI模型改进而非僵化的配额来奖励贡献者。高德纳调查预测,到2026年,由于缺乏AI就绪数据,企业将放弃60%以上的AI项目。

如果行业希望到2030年为全球经济贡献15.7万亿美元,人类的能力和专长对准备AI训练数据至关重要。企业必须采用"人在循环"方法优化数据集,构建高质量、高性能且相关的AI模型。

观点作者:Sapien首席执行官Rowan Stone

本文仅供一般参考,并非法律或投资建议,亦不应被视为法律或投资建议。文中表达的观点、想法和意见仅代表作者个人,并不一定反映或代表 Cointelegraph 的观点和意见。

相关推荐:社会安全号码是一种隐私责任