云原生集成开发环境——TitanIDE
通过网页在任何地方更安全、更高效地编码想要获得最大程度的云原生收益?
您应即刻采取行动,以云原生方式构建新的应用或是改造旧有应用。 传统的"刀耕火种"式开发工具和云原生格格不入,您需要云原生数字化创新平台。云原生平台貌似很多,但聚焦于开发的很少,而这是云原生之旅极为重要的起点
我们迫不及待地想要与您分享和探讨我们的独特方案,相信对您的云原生实践一定会有所帮助。
如果您刚刚开始探索云原生世界,这些工具将让您快速获得不同的云原生能力; 如果您已经踏上云原生之旅,相信这些可插拔的工具定会让您的云原生体系如虎添翼
如何从无到有快速开发、上线您的业务?即刻体验行云 Methodot,为独立开发者和中小研发团队提供的一站式在线服务,可通过“有代码+低代码”结合方式满足各类多变业务需求
2025-04-17
【开云新闻】最近,ChatGPT的爆火又让AI(人工智能)的话题摆在了大家的面前。关于AI技术的现状和前景,不少科技圈大佬都发表了自己的看法。不过,看起来无所不能的AI,似乎已经在某些方面开始走弯路了。据开云了解,根据模型测试,AI已经学会了性别歧视,而且还是很常见的“重男轻女”。
AI
据媒体报道,清华大学交叉信息研究院助理教授于洋,曾在去年带领团队做了一个针对“预测某种职业为何种性别”的AI模型性别歧视水平评估项目。测试模型包含GPT-2,即ChatGPT的前身。结果显示,GPT-2有70.59%的概率将教师预测为男性,将医生预测为男性的概率则为64.03%。
ChatGPT
不仅如此,在本项目中,团队测试的AI模型还使用了谷歌开发的bert和Facebook开发的roberta。让人意外的是,所有受测AI对于测试职业的性别预判,结果倾向都为男性。于洋对此表示:“它(AI)会重男轻女,爱白欺黑(即种族歧视)”。类似的案例在2015年也有出现,当时Google Photos应用误把两名黑人标注为“大猩猩”,随后谷歌立即道歉,并表示将调整算法以修复问题。
开云了解到,早在2019年,联合国教科文组织便发表了一份题为《如果我能,我会脸红》的报告,指出当时大多数AI语音助手存在性别偏见。
综合来看,关于AI算法中含有性别、种族歧视的案例并不鲜见,但要消除这些偏见并非易事。就如微软纽约研究院的高级研究员Hanna Wallach此前所说:只要机器学习的程序是通过社会中已存在的数据进行训练的,那么只要这个社会还存在偏见,机器学习也就会重现这些偏见。
版权所有,未经许可不得转载
-开云电竞Copyright ©2016-2024 深圳kaiyun开云创新科技有限公司 版权所有 |粤ICP备17026550号
电话总机:400-008-9160 市场合作:marketing@












