主要内容
人工智能的前景在于它将让我们的生活更轻松。巨大的便利带来了潜在的巨额利润。联合国认为,到 2033 年,人工智能可能成为 4.8 万亿美元的全球市场,约与德国经济规模相当。但先别管 2033 年,当下,人工智能已在金融服务、制造业、医疗保健、营销、农业和电子商务等众多行业推动变革。无论是自主算法“代理”管理投资组合,还是人工智能诊断系统早期发现疾病,人工智能都在从根本上改变我们的生活和工作方式。
然而,对人工智能的怀疑正在加剧——我们已经看过《终结者 2》太多次,变得极为警惕。那么,值得一问的是,当人工智能更深入地融入我们的日常生活时,我们如何确保信任?利害关系重大:卡姆unda 最近的一份报告揭示了一个令人不快的事实:大多数组织(84%)将监管合规问题归因于人工智能应用缺乏透明度。如果公司无法查看算法——或者更糟糕的是,如果算法隐藏了某些东西——用户就完全处于黑暗之中。再加上系统性偏见、未经测试的系统和拼凑的法规等因素,你就有了大规模不信任的配方。
透明度:打开人工智能黑箱
尽管人工智能算法具有令人印象深刻的能力,但它们往往不透明,让用户不知道决策是如何做出的。那个人工智能驱动的贷款申请被拒绝是因为你的信用评分,还是由于未披露的公司偏见?没有透明度,人工智能可以追求其所有者的目标,而用户却一无所知,仍然认为它在执行他们的命令。一个有希望的解决方案是将流程放在区块链上,使算法可验证和可审计。这就是 Web3 技术的用武之地。我们已经看到初创公司在探索可能性。由微软支持的 Space and Time(SxT)提供防篡改的数据馈送,包括可验证的计算层,因此 SxT 可以确保人工智能所依赖的信息是真实、准确的,并且不受单个实体的污染。Space and Time 的新颖 Proof of SQL 证明者保证针对未篡改的数据准确计算查询,在区块链历史中证明计算,并能够比最先进的 zkVM 和协处理器快得多。本质上,SxT 有助于在不依赖中心化权力的情况下建立对人工智能输入的信任。
证明人工智能可以被信任
信任不是一次性的事情;它是随着时间的推移而赢得的,类似于一家餐厅通过保持标准来保留其米其林星级。必须持续评估人工智能系统的性能和安全性,尤其是在医疗保健或自动驾驶等高风险领域。一个二流的人工智能开错药或撞到行人不仅仅是一个小故障,而是一场灾难。这就是开源模型和通过使用不可变账本进行链上验证的美妙之处,通过使用零知识证明(ZKPs)等加密技术确保内置的隐私保护。然而,信任不是唯一的考虑因素:用户必须知道人工智能能做什么和不能做什么,以现实地设定他们的期望。如果用户认为人工智能是万无一失的,他们更有可能信任有缺陷的输出。迄今为止,人工智能教育的叙述一直围绕着它的危险。从现在起,我们应该努力提高用户对人工智能能力和局限性的了解,更好地确保用户得到授权而不是被利用。
合规与问责
与加密货币一样,在讨论人工智能时经常提到合规一词。人工智能在法律和各种法规下不会被豁免。一个无面的算法应如何承担责任?答案可能在于模块化区块链协议 Cartesi,它确保人工智能推理在链上进行。Cartesi 的虚拟机让开发人员在去中心化的执行环境中运行标准的人工智能库——如 TensorFlow、PyTorch 和 Llama.cpp。