作者:Lisa Loud,Secret Network执行董事
如果任由其发展,算法将以机器速度复制过往偏见,令一半劳动力被边缘化,并让薪酬差距持续存在整整一代。
国际劳工组织最新警告显示,在高收入经济体中,近10%由女性担任的岗位正面临生成式人工智能带来的重大变革——这一比例几乎是男性的三倍。
解决之道正是为透明与共治而生的区块链技术。分布式账本能够从数据源头揭示偏见,并将经济权利以代码形式固化,防止算法悄然抹去女性权益。
算法在无视女性下改写历史
生成式系统不仅误导女性形象,更重塑了一个女性权威缺席的世界。当被要求展示领导者时,图像模型依然默认男性面孔;而涉及照护者时,则默认女性。这一模式正如联合国妇女署所指出的“歧视反馈循环”,早已渗透到招聘、贷款、医疗分诊等多个环节。
随之而来的还有经济影响。
以女性为主的行政和文职岗位正处于人工智能冲击的风口。近10%女性岗位面临威胁,意味着数百万职位将面临降级、分化甚至消失的风险。
人才培养和职业发展渠道同样受此影响,这一令人担忧的数据高度相关。在全球范围内,具备AI工程技能的女性仅占29.4%,这从两个层面反映了偏见的延续:一是在训练数据中女性被忽视,二是在职场中女性被排除在解决问题之外。
即便如此,行业仍在鼓吹“代码中立”的神话。这种叙事在全球范围内误导每一位女性——算法以数学外衣掩盖偏见。与此同时,大型科技公司的工程师获得了所谓“统计必然性”的道德豁免权,而女性却难以为自身权益发声。
每当简历筛选模型因育儿空档而降低女性评分时,机器并非真正提升了效率,而是在执行意识形态的任务。每一次带有偏见的输出,都在加固数据壁垒,让未来的系统继续吸收这些偏见,将昨日的不公转化为明日的“事实”。
可见性透明账本
不透明助长歧视,区块链则消除不透明。
链上凭证钱包赋予女性对学业记录、工作履历和照护工作证明的不可伪造自主权,而这些内容常被传统简历解析工具忽略。相比之下,智能合约薪酬系统能够自动执行同工同酬原则,生成任何私有算法都无法篡改的公开平等证明。
更具变革意义的是区块链对数据源的溯源能力,每条文本、图像或生物识别记录都可携带按性别细分的元数据及加密签名。
想象一下,如果训练语料库低估女性(或仅以刻板印象展现女性),审计人员就能将每一个模型输出追溯到具体缺陷,并要求开发者重新训练,否则不得参与采购。
这不仅关乎公平。追踪Web3普及的分析人士指出,女性在去中心化金融(DeFi)和治理领域的缺席正在削弱公众信任,威胁大规模采用。
因此,从一开始确保平等,不仅是道德责任,更关乎区块链自身愿景和全球实现真正平等的未来成败。
让代码成为责任的载体
强制透明才是政策缺口。立法机构应要求,任何用于招聘、信用评估或公共服务的人工智能模型,必须在无需许可的账本上披露其训练数据来源。
无法溯源,即不得上线。
政府采购应仅向已在链上通过性别平衡审计的系统授予合同,以加速变革。税收政策应激励那些将女性创意、照护或科研贡献通证化的项目,将版税回馈给长期为经济提供无偿劳动的女性群体。
批评者认为区块链增加了复杂性,但复杂性早已存在,只是隐藏在专有数据集和黑箱模型中。透明账本则完全不同。
将复杂性转移到开放环境,让公民社会专家能够检视和追踪任何缺陷或改进空间,对所有人来说都是净收益。一旦偏见暴露,压力和诉讼随之而来,而那些无声的不公也能转化为可执行的证据。
历史的惯性是排斥,技术绝不能重蹈覆辙。区块链构建了一种架构,使每一个数据点和工资包都可追溯、可验证,并且无法在无人察觉下被篡改。
现在就采用这种架构,下一代算法将不再把女性视为统计意义上的“边角料”,而是作为共同塑造未来的贡献者。
人工智能是设计,不是命运。让设计上链,抹除将无从发生。
作者:Lisa Loud,Secret Network执行董事。