“女蛙王”的新愿望******
新华社石家庄1月10日电(记者杨帆)早上五点半,丁继萍就在泳池边了。
打开计时器,戴上老花镜,摊开训练日志本,逐个布置队员的训练内容。随着一声响亮的“预备、走”,队员们先后跃入池中,开始7000米距离的水上训练。
1月7日,丁继萍早起在泳池开始工作。
场边一举一动都带着劲头的丁继萍,今年62岁。年轻时她做过游泳运动员,8年职业生涯中屡获佳绩,被誉为“河北蛙王”。退役后,丁继萍来到教练员岗位上,为国家培养输送了大批优秀运动员。
“女蛙王”走上游泳道路很偶然。14岁时,一次丁继萍在省游泳馆玩耍被业余游泳培训班的教练相中,才开始系统参与游泳训练。起步晚,意味着需要付出更多努力,经年累月也培养了她能吃苦、能突破的劲头。
1980年9月,丁继萍在上海参加全国游泳锦标赛。
2016年,河北省体育局大胆试水改革,河北省体育局游泳跳水运动中心联合衡水泰华锦业房地产有限公司共同创建河北泰华锦业游泳队,同年成立了基地设在衡水市市郊的河北泰华锦业游泳俱乐部(以下称泰华俱乐部),以期在泳池内实现突破。
1月7日,泰华俱乐部游泳馆内景。
正是那一年,已到退休年纪的丁继萍,开启了人生的另一个偶然,她决定随河北省游泳队来到俱乐部,一把年纪成了开拓者。丁继萍说:“我们一家人常年两地分居,都盼着我退休回家休息。但我觉得还能干,能在教练岗位上有更高突破。”
河北省体育局游跳中心负责人介绍,丁继萍作为优秀专业教练,带过各年龄段的孩子,技术扎实、经验丰富,最终确定她作为俱乐部二线队主教练。
记者采访了解到,泰华俱乐部二线队队员年龄集中在9-12岁,这个阶段青少年身心发育尚不充分,不仅需要教练员在场上科学指导,还需要场下悉心照顾。
丁继萍说:“孩子们常年跟着我,比跟父母的时间还长,我们建了个微信群叫‘丁奶奶的大家庭’,每天督促他们学习生活,他们有什么小秘密也会和我说。”
1月8日,丁继萍在泳池边辅导队员。
18岁的队员周存鑫跟着丁继萍训练已有一年时间,在此期间达到了国家一级运动员水平。但刚来队里时,周存鑫曾因完不成训练任务而懈怠退缩。
“丁教练发现后单独找我谈话,拿她当年训练的故事激励我,告诉我‘咬牙坚持是运动员的一个宝贵品质’。”那次谈话后,周存鑫努力训练,成绩突飞猛进。
正是在丁继萍等一批老中青教练携手努力之下,俱乐部迎来突破:队员李冰洁、张一璠在东京奥运会女子4×200米自由泳接力项目上夺冠并打破世界纪录;第15届短池游泳世锦赛上,李冰洁在女子800米、400米自由泳项目夺金。
2021年7月29日,东京奥运会游泳项目女子4×200米自由泳接力决赛,中国队打破世界纪录并夺冠,中国队选手杨浚瑄、汤慕涵、张雨霏、李冰洁(从左到右)在颁奖仪式后合影。新华社记者夏一方摄。
泰华俱乐部总经理康靖介绍:“竞赛层面之外,近几年俱乐部深入贯彻体教融合政策,引入衡水当地优质文化教育资源,孩子们的学习教育得到有力保障。丁继萍的多名队员以成绩优异考入大学,她获得了广大家长的肯定。”
随着寒假和春节即将到来,最近有很多省区市游泳队前来泰华俱乐部训练,丁继萍说自己“已经顾不上惦记过春节了”。“新年有个新愿望——能精力充沛工作。现在孩子们成长进步的路子更宽,我想培养更多苗子,帮他们在泳池内外有所成就。”她说。
图片:除标注外均为受访单位提供
报告显示:超六成受访者认为应强制企业公开算法******
光明网讯(记者 李政葳)“当前,国内对于算法治理的基本思路和框架都是清晰的,而分级分类精准治理的模式应当可以解决如何落实的问题。”在日前举办的“2022啄木鸟数据治理论坛”上,谈及算法治理的现状,清华大学人工智能国际治理研究院副院长、人工智能治理研究中心主任梁正表示,算法分级分类本身不是目标,而是要针对不同风险场景配备不同监管规则。
论坛由南都个人信息保护研究中心联合清华大学人工智能国际治理研究院、人工智能治理研究中心(清华大学)主办。其间,南都个人信息保护研究中心发布《算法应用与治理观察报告》《个人信息安全年度报告》《平台经济反垄断观察报告》。
记者了解到,《算法应用与治理观察报告(2022)》,梳理了国内外的多项法规,结合热点事件及应用场景呈现了算法治理现状,并发布千份算法治理调查问卷了解公众对算法公开和算法治理的了解程度和基本态度,最后基于多方调查分析,给出了当前算法趋势观察以及未来治理方向建议。
报告发现,目前国内算法治理仍处于早期探索阶段,企业的算法公开主要依靠官方的互联网信息服务算法备案系统,或在舆情事件发生之后。调查问卷结果显示,近半受访者承认算法让自己的使用体验更好,但仅一成受访者认为企业算法公开做得很好,逾六成的受访者称曾遭遇“大数据杀熟”;超过六成的受访者认为应该强制企业公开算法。
“在数据、算法方面治理政策进展显著,在平台与应用方面的政策和落地尚需加紧。”中国科学院人工智能伦理与治理研究中心主任、国家新一代人工智能治理专委会委员曾毅认为,目前人工智能伦理有三个相当紧迫的问题需要被正视:首先,人工智能应当被适度使用;其次,目前人工智能服务知情同意落地艰难,被迫知情同意普遍存在;最后,目前用户数据的授权撤销在人工智能服务中存在巨大挑战,需要监管和更高层的网络服务提供方联合提出更合理的政策与解决方案。
针对日前发布的《互联网信息服务深度合成管理规定》,中国政法大学数据法治研究院教授张凌寒表示,从算法治理角度来说,深度合成管理规定与之前的算法推荐管理规定的思路有所不同,前者采用了一种“三位一体由的数据与技术规范。
具体来讲,由于深度合成技术的门槛较高,技术支持者也被纳入了监管范围内。比如,深度合成服务提供者提供智能对话、合成人声、人脸生成、沉浸式拟真场景等服务,应当进行显著标识,这就将更重的责任落在了服务提供者身上。
中国社科院科技和社会研究中心主任段伟文提到,算法治理需要构建可信任的算法认知,而这需要产业和消费者的共同努力:产业要努力提升算法精准性、透明度,减少偏见,减少歧视;消费者则需要提高数字素养,提升算法意识,加强在人机互动中自主性、控制感和协同意识。
(文图:赵筱尘 巫邓炎)