持续创作,加速成长!这是我参与「掘金日新计划 · 6 月更文挑战」的第19天,点击查看活动详情
目录
论述题:违反工程伦理算法案例
- 简单阐述一个与违反工程伦理基本准则的算法案例;
- 分析案例中存在的工程伦理问题;
- 从工程伦理的角度提出解决问题的思路。
解答:
网约车:网约车司机权益或因算法受损专家提五大建议加强平台算法监管_法治日报·法治周末官网
简单阐述一个与违反工程伦理基本准则的算法案例;
网约车算法在工程的质量监理存在问题:1网约车平台基于海量数据与算法优势对司机形成较大约束。平台的派单、路线规划与抽成等行为,均通过算法实现,损害司机,乘客权益。2 派单算法不尽合理,司机只能被动接受;3 网约车积分算法目的是调动司机积极性,保证平台运力,司机为提升积分,放弃休息、连续接单,引发疲劳驾驶和安全风险,算法积分与乘客评价挂钩,且差评权重较大,司机一旦被差评或投诉,通常会被扣1-12个积分不等,而涨1个积分则需要多个好评。形成了“重乘客、轻司机”的判责惯例。4 即使司机有异议,申诉渠道有限、申诉成功的概率低。5 路线规划算法误差大,频繁引发司乘矛盾。6 平台的抽成算法不透明,对司机抽成比例过高。
网约车算法没有意外风险控制方法;
网约车算法没有事故应急处置办法;
工程伦理基本准则
- 工程的质量监理与安全
- 意外风险控制与安全
- 事故应急处置与安全
分析案例中存在的工程伦理问题;
忽略伦理问题下产生的算法歧视问题,实践主体缺乏必要的伦理意识造成的工程伦理问题**,工程在向社会提供服务同时不应当忽略工程风险问题。**
缺失 意外风险控制,增加工程风险:在基于大数据的人工智能算法的训练过程中,算法训练追求利益最大化,导致司机超速;打车一人打车,很多人乘车导致超载,发生事故;缺失意外风险控制增加工程风险。
缺失 事故应急处置 工程风险:网约车谋杀案以及交道事故频发。平台没有事先准备一套完整的事故应急预案,保证迅速、有序地开展应急与救援行动。
技术维度工程伦理问题:工程师政治立场和社会偏见都会不可避免的嵌入程序中,导致数据偏差,使算法背后隐藏着风险。
利益维度的工程伦理问题:临沂市网约车起步价5元,只要有人接单就是定为起步价,不考虑实际成本,有人买车就是为了开网约车,导致在这么低的定价不得不开。乘客支付正常出租车价格,平台抽成30%,造成严重利益分配不均。
责任维度的工程伦理问题:算法在价值选择困境与责任承担困境中存在风险。一旦发生事故如谋杀案,在责任鉴定中,算法没有能力为自己的决策承担其相应的责任。
从工程伦理的角度提出解决问题的思路。
防止意外的发生:算法加强意外风险防范,通过外接设备严谨超载超速行为发生。
事故发生:建立事故应急处置机制,以应对已经发生事故
算法开发过程中:1遵循包容审慎的监管原则,以提升算法透明度与可解释性为着力点便捷司机、乘客等利益相关者及社会监督,要求平台公开定价规则、抽成规则、派单规则等,减少司机,平台,乘客三方信息不对称。2坚持事前审查与事后问责相结合,严禁平台将“技术中立”作为推卸责任的“挡箭牌”,提高算法的可解释性,确保数据采集与算法运用合法合理。加强对路线规划算法的监管,督促平台依据标准测试仪器,提高计程计价精准度。3加强网约车平台算法伦理引导。强化网约车平台企业的社会责任感,鼓励其建立算法伦理审查制度。4创新网约车行业反垄断监管,网约车平台的高抽成等行为与其高市场份额密切相关,明确滥用市场支配地位行为的判定,加大监管和执法力度,对平台通过算法滥用网约车市场支配地位的行为予以严厉打击。5建立平台算法相关纠纷解决机制,不断提高司机话语权,畅通司机权利救济渠道,结合行车记录仪视频等,依法依规处理司乘纠纷。
分析“外卖骑手,困在系统里“背后的工程伦理问题。
缺失 意外风险控制增加工程风险:在基于大数据的人工智能算法的训练过程中,算法训追求短时间,从而导致外卖骑手不得不加快派送的速度,缺失意外风险控制增加工程风险。
缺失 事故应急处置 工程风险:外卖骑手因忽视交通规则造成伤亡的事件找交通事故主要部分。平台没有事先准备一套完整的事故应急预案,保证迅速、有序地开展应急与救援行动。
技术维度:工程师道德风险导致数据偏差,基于算法和大数据的人工智能技术背后隐藏着风险。导致数据的不准确,数据偏差带来的风险。
利益维度的道德问题:人工智能存在威胁、侵犯人类利益的风险。外卖骑手在系统的算法歧视下被迫忽视交通规则,对骑手、对行人已经构成严重的安全隐患。
责任维度的道德风险:人工智能在价值选择困境与责任承担困境中存在风险。人工智能系统作会逐渐压缩骑手的安全空间。发生事故后责任鉴定中,系统没有能力为自己的决策承担其相应的责任。
未把人的生命安全与健康放在首位;仅考虑平台合法获得的专业资质。
未对外卖骑手秉持真诚、正直和契约精神,自动减少时间的算法就是欺骗;
忽略伦理问题,产生的算法歧视问题:外卖骑手在系统算法与数据的驱动下疲于奔命,无视交通规则,不断提高车速。决策者没有考虑相关的伦理问题所导致的。
简单阐述人工智能时代算法的治理与发展问题。
治理:当前算法相关立法体系还存在问题。一是立法层级分散,强制性不够、执法监管效果打折扣、部门职责划分不清。应统一标准、提升应对能力。二是对平台的监管:事后被动监管,缺乏精细化的平台监管规范。应提前预防进行精细化监管。三是对算法的技术性规范监管较少,立法缺少回归算法本源。能够根据现有的算法和数据不断演变规范监管,主要规范是从网络安全、法律风险等角度来规制的。
算法离不开数据的支持,关注算法的治理,本质就是数据的安全和合理处理。
算法治理的本质还在于信息的合理利用。数据信息的利用需要追求正向价值观,逐步实现算法的可验证、可审核、可监督、可追溯、可预测、可信赖,同时具备普惠性、公平性和非歧视性。
发展:一是强化隐私保护:强化隐私保护体现在立法内容、算法设计和应用、法律责任承担等方面。强化重点人群的隐私保护,特别是不满十四周岁的未成年人、老年人隐私保护,公法治理算法时需要关注隐私保护的传统属性与公私法治理的融合问题。
二是拓宽数据的广度、深度和精度:过程中首要是保障数据安全,建立重要数据和数据分级分类管理制度,建立算法中的验证纠错机制。
三是算法安全保障机制:算法向善,加强定期审查与跟踪监督,严防算法价值观问题,完善立法保障方面,健全安全评估监测、安全事件应急处置等管理制度和技术措施。
建构算法风险伦理评估模型与审查体系。提升算法的伦理信任阈值与制定评估指标。设立算法风险伦理问责机制。
算法治理需要跟算法开发同步开展,有效构建算法治理和保障路径,建立良好的数字营商环境,促进数字经济社会的稳步健康发展。