合作QQ:165687462 | 合作热线:0755-83692700 | 设为首页 | 加入收藏 首页 | 登录 | 注册

深圳资讯 | 娱乐星闻 | I T资讯 | 名企之窗 | 深圳教育 | 旅游资讯 | 社区活动 | 美食乡村 | 公益活动 | 时尚奢华 | 品牌消费 | 数码电子 | 体育快报 | 汽车之家 | 房产家居 | 女性母婴 | 健康养生 | 智能科技 | 文化艺术 | 深圳交通 | 原创活动 | 最近更新 |
当前位置: > 首页 > 福田 > 深圳资讯 > 深圳头条 > 正文
池小燕获颁全球女性领导力奖,并就AI时代性别偏见作主题演讲
阅读 2026/3/20 12:41:45来源:深圳在线 作者:牛海滨
  美东时间2026年3月18日,联合国妇女地位委员会第70届会议(UNCSW70)平行会议——2026世界妇女组织全球女性领导力峰会暨影响力颁奖典礼在纽约联合国总部举行,凤凰网作为峰会战略合作媒体受邀出席。

  活动现场颁发年度九大影响力奖项:全球女性领导力奖、可持续发展杰出成就奖、青年领导力奖、企业社会责任奖、杰出女性公益奖、女性文化影响力奖、国际合作贡献奖、女性品牌影响力奖、女性品牌领导力奖、女性创新成就奖,旨在表彰打破壁垒、塑造未来、构建包容与公平生态系统的个人与机构。

  凤凰网执行董事、高级副总裁池小燕获颁全球女性领导力奖(Global Women Leadership Award),同时获得此项殊荣的还有巴哈马第一夫人安·玛丽·戴维斯( First Lady Ann Marie Davis),全球知名公共卫生专家帕德米尼·默西博士(Dr. Padmini Murthy),瑞士弗里堡大学教育科学教授、人工智能方向学者莎拉·沙多南博士(Sarah Chardonnens)。



  世界妇女组织总法律顾问、全球企业社会责任基金会董事会成员Thomas Patrick Gehl担任颁奖嘉宾。主办方给池小燕的颁奖理由为:凭借在全球营销与媒体创新领域的丰富管理经验,她已成为中国数字媒体与营销行业的领军人物。作为“商业向善”理念的坚定倡导者,她发起了凤凰网“她势界”女性影响力大赏,通过奖学金、表彰项目与系统性倡导推动女性领导力发展。她还首创与联合国可持续发展目标接轨的“青春bang”社会设计平台,推进校企合作,并创立了跨界创新公益平台“行动者联盟”。通过她的工作,池小燕持续搭建媒体、企业、高校与社会责任之间的桥梁,推动女性领导力发展与全球协作。

  此外,池小燕在主题演讲环节发表题为《和而不同:AI时代的女性视角》主旨演讲。她在演讲中援引中国古语“和而不同”,犀利指出当前人工智能发展中的性别偏见风险,并从实践出发表达“当女性被看见时,世界开始改变”。

  池小燕在演讲中首先揭示了一个核心矛盾:女性已是全球不可忽视的经济力量,却仍在关键领域面临巨大差距。她引用数据指出,全球女性控制着约32万亿美元消费支出,仅中国就有超6.24亿女性网民驱动10万亿线上消费。然而,女性在科技领域的领导职位仅占约13%,按当前速度,全球性别差距完全弥合需130年以上。

  她将问题根源归于人类社会长期的“默认设置”,并以汽车安全测试假人依据男性身体建模、医学研究长期以男性病例为主等案例说明,类似偏见正被带入人工智能时代。她举例称,麻省理工学院研究显示,面部识别系统对白人男性错误率低于1%,但对深色皮肤女性错误率高达34%,“根源在于训练数据不平衡”,她表示,“技术不会消除偏见,而会放大偏见。”

  那么,我们该如何改变这种偏见?在二十多年的媒体工作观察中,池小燕认为,许多不平等源于长期存在的“默认设置”,而讲述故事、分享经验能改变这些设置。AI时代的真正问题,不再仅仅是机器能做什么,而是谁在塑造这些系统。“需要更多视角,更多经历,更多女性参与,因为技术将塑造未来,而谁塑造技术,将决定我们建设一个怎样的未来。”

  本次峰会由世界妇女组织(UNWWO)主办,全球企业社会责任基金会(GCSRF)协办,聚焦“法律与金融正义、资本可及性与投资权力、女性引领未来经济”三大核心议题,旨在经济赋权层面推动性别平等,加速实现2030年可持续发展目标。


  以下为池小燕演讲全文:

  Harmony Without Uniformity: Women’s Perspectives in the Age of AI

 

  Ladies and gentlemen, dear friends,

  Standing here in New York today, I’m reminded of a famous line from a Chinese TV drama many people of my generation grew up with.

 

  It said:

  “If you love him, send him to New York — it is heaven.

  If you hate him, send him to New York — it is hell.”

 

  As a child, I thought it was just about New York.

  Later I realized it was about something deeper:

  The same world can look very different from different perspectives.

  And that is why, in China, we have a saying written more than two thousand years ago:Harmony without uniformity.

 

  True harmony does not mean everyone becoming the same.

  It means different perspectives learning how to build a shared world together.

 

  When we talk about women’s development today, I often ask a simple question:

  What are we really trying to eliminate — difference, or bias?

  The answer is clear.

  We are not trying to eliminate difference.

  We are trying to eliminate bias.

 

  Research shows something important.

  Across the world, women are already a powerful economic force.

  Globally, women control around 32 trillion dollars in consumer spending and influence more than 70 percent of purchasing decisions.

  In China alone, more than 624 million women are active internet users, driving over 10 trillion yuan in online consumption.

 

  In other words:

  Women’s development is not only a social issue.

  It is also one of the largest economic opportunities in the world.

 

  And yet the picture remains uneven.

  Women represent about 42 percent of the global workforce,

  but hold only around 13 percent of leadership positions in technology.

 

  According to the World Economic Forum,

  at the current pace it could take more than 130 years to close the global gender gap.

  So we face a striking contrast:

  Women’s potential is enormous.

  But progress remains slow.

  Why?

  Sometimes the answer lies not in ability —

  but in design.

  Take a simple example.

  Studies show that in car accidents, women are about 47 percent more likely than men to suffer serious injuries.

  Not because women are weaker.

  But because for many years crash-test dummies were modeled primarily on the average male body.

 

  A similar pattern appears in medicine.

  Research in the United States shows that when women suffer heart attacks, their mortality rate can be about 50 percent higher than men’s.

 

  One reason is simple:

  For decades, many clinical studies were conducted primarily on male patients.

  When women are absent from research,

  the default human quietly becomes male.

  Today, this same question is emerging in one of the most powerful technologies of our time:

  Artificial intelligence.

 

  A study from the MIT Media Lab found that facial recognition systems had error rates below one percent for white men, but as high as thirty-four percent for darker-skinned women.

  The reason was simple:

  The training data was not balanced.

 

  And this raises a deeper concern.

  If the technologies shaping tomorrow are built from narrow perspectives, bias can be written into algorithms — and multiplied at global scale.

  Because technology does not remove bias.

  It scales it.

 

  So how do we change this?

  As someone who has spent nearly two decades working in global media , my answer is simple:

  We make women visible.

  Many inequalities are not created by bad intentions.

  They grow out of long-standing default settings.

 

  But when stories are told,

  when experiences are shared,

  those defaults begin to shift.

 

  Over the past twenty years, through Phoenix New Media and the Phoenix Global News Network, we have had the privilege of telling the stories of many remarkable women.

 

  And these stories have convinced me of one important truth:

  When women are seen, the world begins to change.

  Which brings us back to that ancient Chinese idea:

  Harmony without uniformity.

  For centuries, it was a philosophy about society.

 

  Today, in the age of AI,

  it has become something more:

  A principle for how we design the future.

  So the real question of the AI age is no longer only what machines can do.

 

  The real question is Who shapes the systems .

  More perspectives.

  More experiences.

  More women.

  Because technology will shape the future.

  who shapes technology

  will decide what kind of future we build.

  Thank you.

  和而不同:AI时代的女性视角

  女士们,先生们,朋友们:

 

  今天站在纽约,我不禁想起我们这代人成长过程中看过的一部中国电视剧里的经典台词。

  “如果你爱他,就送他去纽约,因为那里是天堂。

  如果你恨他,就送他去纽约,因为那里是地狱。”

 

  年少时,我以为这仅仅是在描述纽约。后来我才明白,这句话道出了更深层的意义:同样的世界,从不同的视角看,会非常不同。正因如此,在中国,两千多年前就有这样一句话:和而不同。真正的和谐并不意味着人人都变得一样,它意味着学会如何从不同的视角共同建设一个共享的世界。

 

  今天,当我们谈论女性发展时,我常常问一个简单的问题:我们真正想要消除的,是差异还是偏见?答案很清晰。我们不是要消除差异,我们是要消除偏见。

 

  研究揭示了一些重要事实。在全球范围内,女性已经是一股强大的经济力量。全世界,女性控制着约32万亿美元的消费支出,并影响着超过70%的购买决策。仅在中国,就有超过6.24亿女性是活跃的互联网用户,驱动着超过10万亿元的线上消费。换句话说:女性发展不仅是一个社会议题,它也是世界上最大的经济机遇之一。

 

  然而,图景依然不均衡。女性占全球劳动力的42%,但在技术领域管理岗位女性只占13%。根据世界经济论坛(WEF)《Global Gender Gap Report》,按照目前的速度,要弥合全球性别差距可能需要130多年。因此,我们面对着一个鲜明的对比:女性的潜力是巨大的,但性别平等方面的进步依然缓慢。

 

  为什么?有时答案不在于能力——而在于设计。

 

  举一个简单的例子。研究表明,在车祸中,女性受重伤的可能性比男性高出约47%,不是因为女性更脆弱,而是因为多年来,碰撞测试假人主要依据的是普通男性身体建模。类似的模式也出现在医学领域:美国的研究表明,女性心脏病发作后, 死亡率高于男性约50%。原因之一很简单:几十年来,许多临床研究主要在男性患者身上进行。

 

  当女性缺席于研究时,那个默认的“人”就悄然变成了男性。今天,这个同样的问题正出现在我们这个时代最强大的技术中:人工智能。麻省理工学院媒体实验室(MIT Media Lab,2018)一项研究发现,面部识别系统对白人男性的错误率低于1%,但对深色皮肤女性的错误率却高达34%。原因很简单:训练数据不平衡。

 

  这引发了一个更深层的担忧。如果塑造未来的技术是从狭窄的视角构建的,偏见就会被写入算法——并在全球范围内被放大。因为技术不会消除偏见,它会放大偏见。

 

  那么,我们如何改变这一点?作为一个在全球媒体领域工作了近二十年的人,我的答案很简单:让女性被看见。许多不平等并非由恶意造成,它们源于长期存在的默认设置。但是,当故事被讲述,当经历被分享,那些默认设置就开始改变。

 

  过去二十年,通过凤凰网和凤凰全球资讯网络,我们有幸讲述了许多杰出女性的故事。这些故事让我深信一个重要事实:当女性被看见时,世界开始改变。这让我们回到那个古老的中国理念:和而不同。几个世纪以来,它已成为一种社会哲学。

 

  而今天,在AI时代,它被赋予了更深层的意义:成为我们如何设计未来的指导原则。

 

  因此,AI时代的真正问题,不再仅仅是机器能做什么,真正的问题是:谁在塑造这些系统。我们需要更多的视角、更多的经历、更多的女性参与,因为技术将塑造未来,而谁塑造技术,将决定我们建设一个怎样的未来。

 

  谢谢。

关于我们 - 版权声明 - 广告服务 - 网站地图 - 会员专区 - 客户服务 - 疑难解答 - 联系我们
Copyright© 2007-2019 www.szol.net 深圳在线 版权所有
中国·深圳 粤ICP备15080520号