此前在今年3月底,包括微软、Meta、谷歌、亚马逊和推特等在内的科技公司,对其“人工智能相关团队”进行了裁员。由此令外界也产生了一些担忧,因为这些团队组建的目的,是为使用人工智能的产品安全性提供建议。其中有观点认为,裁撤这些团队可能会使得未来的AI产品无法保证被负责任地开发或使用,并加剧消费者对人工智能快速发展的焦虑和恐慌心理,还可能会对整个行业的发展造成不利。
日前,微软首席负责任AI官娜塔莎·克兰普顿(Natasha Crampton)发表了一篇文章,就该公司此前解散AI伦理团队的原因进行了解释,同时还对微软未来的AI管理策略进行了说明。
根据克兰普顿的说法,微软之所以解散AI伦理团队,原因在于其认为无法仅依靠单一团队来对AI的伦理问题负责,未来该公司将把AI伦理融入到公司的整个策略中去,可能会在每个核心部门都有管理人员负责AI伦理问题,同时还将组建一个由不同技能和角色组成的AI伦理网络,以实现更频繁、直接的沟通。
此前,微软旗下搜索引擎新必应整合人工智能聊天机器人后,页面访问量增长了15.8%,后续其还推出了由GPT-4驱动的AI办公套件Microsoft 365 Copilot。但后续在发现人工智能聊天机器人在经历长时间或多次对话后,可能出现的侮辱用户、欺骗用户、操纵用户情感等行为后,微软对其聊天次数进行了限制。而这便是其AI伦理团队进行的一次有益尝试,试图缓解公众对AI发展的担忧。
在克兰普顿的这篇文章中表明,微软并未放弃在人工智能方面的努力,并试图确保公司各个团队都能与负责AI伦理的专家保持定期联系。
在相关团队人员的去向方面,克兰普顿声称,微软目前有近350人在负责AI伦理的相关工作,其中129人为全职专职人员。当AI伦理团队被解散后,一些员工被分配到了该公司的其他部门。但此前在2023年初微软的裁员中,曾有7名AI伦理工作人员被解雇。
事实上,外界对于AI的发展一直抱有一定的抗拒心理,从安全到工作机会等方面的抱怨更是不曾停止。而微软对AI接受监管一事本身持赞成态度,也并未忽视AI伦理方面的相关工作,但当前其所采取的相关策略还有待时间的验证。
【以上内容转自“三易生活网”,不代表本网站观点。如需转载请取得三易生活网许可,如有侵权请联系删除。】
延伸阅读: