美国高科技企业裁员潮愈加汹涌******
据央视新闻消息,据路透社1月20日报道,谷歌母公司“字母表”公司在一份员工备忘录中称,由于面临“不同的经济现实”,该公司将裁员约1.2万人。公司称将加倍投入人工智能,并裁减支持实验项目的人员。
此次裁员影响该公司6%的员工。此前,包括亚马逊、微软和元宇宙平台公司在内的科技巨头已经大量裁员。
总部位于加利福尼亚的“字母表”公司的股价20日上涨4%。在过去12个月里,该公司股价已经下跌30%,与整个科技行业24%的跌幅相呼应。
自2019年以来一直担任“字母表”公司老板的孙达尔·皮柴20日在备忘录中称,他对导致裁员的决定承担“全部责任”。
皮柴称,由于“字母表”公司希望为产品融入更多人工智能,现在是“让我们更加专注、重新设计我们的成本基础并将我们的人才和资本引向我们最优先考虑领域”的时刻。
“字母表”公司一直是人工智能领域的领导者,目前正面临来自微软的竞争。
与此同时,由于消费者削减支出,“字母表”公司的主要收入来源广告收入也受到企业削减预算的挤压。
哈格里夫斯-兰斯当股票经纪公司的分析师苏珊娜·斯特里特称:“显然,由于对美国经济衰退的担忧加剧‘字母表’公司也不能幸免于艰难的经济背景。”
斯特里特称:“广告增长已经降温……竞争还在升温‘字母表’公司面临强大的竞争对手TikTok,Instagram也在争夺YouTube的观众。”斯特里特指出,“字母表”公司还被处以数十亿美元的监管罚款。
埃弗科国际战略和投资集团的分析师马克·马哈尼说,“字母表”公司创纪录的员工人数造成了2023财年的重大利润率风险。伯恩斯坦的分析师称,裁员可能为“字母表”公司节省25亿至30亿美元的成本。
随着“字母表”公司裁员,过去几个月里,美国最大的四家科技公司共裁员5.1万人。在美国就业市场依然紧张的情况下,这些数据加剧了人们对经济衰退的担忧。
Equiti投资公司的经济学家斯图尔特·科尔称:“科技行业有点像煤矿里的金丝雀。”科尔认为,科技行业的裁员预示着就业保障的前景终于开始变得更加负面。
在疫情期间更谨慎招聘的苹果迄今为止一直没有裁员。不过,“苹果内幕”网站20日援引消息人士的话报道称,苹果已经开始在百思买等零售渠道裁员。
苹果公司没有立即对该报道发表评论。
两名知情人士在接受记者采访时说,“字母表”公司一直在致力于一项大型人工智能产品的发布。其中一位消息人士称,发布将在春季举行。《纽约时报》也报道称,谷歌计划推出20多种新产品和搜索引擎。
皮柴说,失去工作的人中有招聘人员、企业员工以及工程和产品团队的工作人员。该公司的一名发言人在接受记者的采访时称,该公司已经削减其内部研发部门Area 120的大部分职位。
“字母表”公司工会在一份声明中称,该公司领导层承担“全部责任”的做法“并没有让人感到安慰”。
在美国,“字母表”公司已经向受影响员工发送电子邮件,员工将获得遣散费、六个月的医疗保健以及移民支持。
皮柴在备忘录中说,在海外,根据当地的雇佣法律和惯例,裁员通知将需要更长的时间。亚洲的员工将从2月开始了解裁员是否对他们有影响。
360联合天津智慧城市数字安全研究院发布《全球人工智能安全治理》报告******
2023年1月10日,360天枢智库、天津智慧城市数字安全研究院、网络空间国际治理研究中心三方联合发布《全球人工智能安全治理》报告,报告站在全球视角的宏观高度纵览、分析和解读人工智能安全治理问题,提出人工智能发展面临十大安全挑战,旨在探索既能发挥人工智能技术效益又能控制其安全风险和负面影响的治理之道,是中国学术界和产业界对人工智能发展与安全的一次思想碰撞与深度探索,对人工智能安全治理具有积极指导意义。
在人工智能加速智能化变革的同时,针对人工智能的伦理规范、风险框架、以及治理理念和模式的探索成为各国学术界和政策界的重点工作。360首席安全官、天津智慧城市数字安全研究院院长杜跃进称,人工智能作为中、美、欧等国家或地区都在积极发展的关键新兴技术,其在发展过程中所产生的安全挑战也更为复杂多元,世界主要国家和地区已经将安全治理列为各自人工智能战略的优先事项。
目前,各国普遍关注的人工智能安全问题共十类,包括网络安全问题、企业合规问题、可解释性问题、隐私安全问题、声誉和伦理问题、未来劳动力问题、公平性问题、人身安全问题、社会稳定问题、以及国家安全问题。而以上挑战映射到人工智能的研发和应用过程,又可以划分为人工智能自身安全、衍生安全、以及人工智能赋能安全等核心安全挑战。
报告显示,作为一种数字技术,人工智能“双刃剑”特征明显,不仅自身存在数字安全威胁和隐患,随着人工智能工程化、场景化、平台化落地不断加快,人工智能安全需求已经超越单纯技术范畴。面对日趋复杂的安全挑战,人工智能安全治理难以一蹴而就,只有在实践中不断摸索,才能将人工智能安全风险遏制在可控范围。
报告对各国人工智能安全治理模式进行了深入剖析,针对上述问题,报告主要发现:美国流派在人工智能安全治理上采取的手段是在人工智能技术部署、使用与监测的全过程中都进行验证与监管,建立与之配套的规范体系;欧盟流派则更寄希望于运用监管框架与信任体系来对人工智能的安全进行规制,其规制更倾向于人权方向;相较美国与欧盟,中国流派的人工智能安全治理致力于形成内含研发、管理和应用的全流程安全保障体系,涵盖基础框架研制、基本安全原则、供应链管理实践指南、安全服务能力、应用领域的标准研制等各个方面。
为了避免人类社会发展被技术创新所“反噬”,也就是落入所谓的“科林格里奇困境”,产学研各界以监管和设置可操作性原则为主导,通过治理实践凝聚共识,探索人工智能安全治理的思路与模式。报告详细介绍了业界通用的各类风险治理思路,首先是基于未来风险预防的影响评估模式,其次是基于自主性原则的元监管模式,然后是基于透明追踪的AI系统预警模式。并由此细分出以用户为考虑重点的参与性设计和以政府为主导力量的敏捷治理两条路径。
在中国,360等多家人工智能龙头企业以自身实践构建行业安全案例,走出了技术赋能、行业规制、平台监测的多种道路。其中,360承建了科技部牵头成立的“安全大脑国家新一代人工智能开放创新平台”建设,集中解决各类人工智能发展问题,引领人工智能安全生态建设。
作为报告联合发起方,天津智慧城市数字安全研究院依托于新一代人工智能创新发展试验区核心区——中新天津生态城提供的丰富应用场景,紧紧把握新型城市发展规律和机遇,致力于促进人工智能与经济社会发展深度融合,助力打造“智慧城市国家级标杆区”。
随着数字经济成为改变全球竞争格局的关键力量,人工智能产业将得到更大发展。同时,人工智能安全治理也将得到全世界的关注和推动,《全球人工智能安全治理》报告作为相关领域的权威论著,也将为人工智能产业的健康发展贡献一份重要的力量。
(文图:赵筱尘 巫邓炎)