时政
财经
科技
虚拟货币
其他
登录
#技术伦理
关注
东方网-上观新闻
2周前
写作文用AI是偷懒吗?“迅哥儿”这么说
#AI写作
#学生作文
#教育争议
#技术伦理
#迅哥儿评论
分享
评论 0
0
明鏡新聞網
3周前
人工智能会超越人类智能吗?——“人工智能教父”杰弗里·辛顿
#AI浪潮:重塑就业,风险暗涌?· 85 条信息
#人工智能
#杰弗里·辛顿
#人类智能
#技术伦理
#未来
分享
评论 0
0
Suyutong
2个月前
罗帅宇,被杀死在中国的「缅北诈骗园」。 当我在痛骂紫蜡烛的时候,不会包括罗帅宇这个眼神明亮、心有公义的人,也不包括为了孩子的尊严,拒绝刽子手闭嘴钱的罗帅宇的家人。 东野圭吾小说《变身》,就曾写过医院里的医生对病患,只要是签过自愿捐赠器官协议的,会连块皮肤也不给剩。 在我小的时候就曾思考过科学、技术的伦理边界这种问题,人们总以拯救生命、爱为名,不断突破伦理的边界,连对胚胎基因编辑、人工病毒都被放行。 可是紫蜡烛们根本不思考这些问题,在怂人洪流中像烛一样活着,偶尔甩出几个在信息时代获得的名词,比如「理性」、「宽容」、「公义」等来做自己的保护色,以使自己像个人的样子。 可是,紫蜡烛真的是人吗? 2008年512地震,我曾在地震灾区看到豆腐渣工程上那散落的书包和作业本,那些孩子只在世界上活泼泼的生活过7年。一开始,他们的父母还在维权,两年过去,他们中的很多人数着政府的闭嘴钱,好像这些孩子都没有来过这个世界。有人会说他们乐观,他们不应只停留在过去的悲痛中,可是世间最不应该放弃的不是尊严吗?孩子的命都没有了,但是父母必须要捍卫他们的尊严啊; 紫蜡烛常常陷于技术优越感中,主张爱与和平、平等的真紫蜡烛们还会为贺建奎的基因编辑成果而振奋,为中国电动车技术而骄傲,却从来不知道无论是在技术发达还是不发达的世界,尊严都是作为一个人最有重要的组成部分。 不知道这些的紫蜡烛都该死!不用等着出栏。 如果我们知道这么简单的道理的话,别说中共,任何一种垃圾权力也不会在中国如此霸道,今天罗帅宇又能以他的死亡代价唤醒多少半人?
湘雅二院罗帅宇坠亡事件:官方调查引质疑,真相迷雾待独立调查· 35 条信息
#罗帅宇
#缅北诈骗
#紫蜡烛
#尊严
#技术伦理
分享
评论 0
0
宝玉
2个月前
WIRED:当AI智能体犯错时,谁该承担责任? 随着谷歌和微软大力推广能够自主行动的AI智能体技术,人们正逐渐意识到:当多个智能体彼此互动并且触碰到法律底线时,到底该由谁来承担责任? 过去一年中,资深软件工程师杰伊·普拉卡什·塔库尔(Jay Prakash Thakur)利用业余时间,不断尝试开发能够自主订餐、甚至独立设计移动应用程序的AI智能体。他研发的智能体虽然表现惊人,但也暴露了一个新的法律问题:当这些智能体犯错并造成损失时,究竟谁来承担责任? 什么是AI智能体? AI智能体(Agents)指的是能独立完成任务的人工智能程序。企业可以利用智能体来自动完成客服回复、支付账单等事务。与我们熟悉的ChatGPT不同,智能体不只是听命于用户指令,更能自主行动,微软、亚马逊和谷歌正期望这些智能体承担更复杂的任务,并且无需太多人工干预。 科技行业的雄心甚至更大,未来将由多个智能体组成的系统取代整个工作团队。这种技术的好处很明显:为公司节省大量的时间和人工成本。权威市场研究机构Gartner预测,到2029年,有80%的常规客户服务问题将由智能体解决。自由职业平台Fiverr数据显示,近几个月以来,“AI智能体”的搜索量暴增了18347%。 智能体出现问题后,谁担责? 塔库尔虽然目前在微软任职,但他的本职工作并不涉及智能体。然而,他从2024年在亚马逊工作期间就开始研究微软的智能体开发工具AutoGen,开发了一些多智能体的原型。他最大的担忧是,如果不同公司的多个智能体之间沟通失误而导致严重损失,法律责任该如何分配?他形容:“想找出责任方就像根据几个人零散的笔记,去还原一场复杂的对话一样困难。” 从谷歌离职、现任律所King & Spalding的律师本杰明·索夫特尼斯(Benjamin Softness)指出,出了问题的人通常都会找那些财力雄厚的大公司索赔。换句话说,即使出错的是普通用户,但企业可能依旧会成为主要的索赔对象,因为追究普通消费者的责任通常没有经济价值。保险业已经开始提供专门针对AI智能体的保险,以帮助企业应对这些风险。 AI智能体会犯哪些错误? 案例一:“无限使用”的误解 塔库尔开发的一个原型中,有两个智能体相互协作。其中一个负责寻找开发应用程序所需的工具,另一个负责总结工具的使用条款。 在一次测试中,负责搜索的智能体找到了一款工具,说明上写着:“企业用户每分钟支持无限请求次数”,但负责总结的智能体错误地省略了“企业用户”和“每分钟”这些关键字眼,导致另一个智能体误以为自己可以无限次地请求。这次失误虽未造成损失,但实际使用时,很可能导致整个系统崩溃。 案例二:“洋葱圈”变成“多加洋葱” 塔库尔还模拟了一个餐厅点餐系统,用户可以通过AI智能体点餐,再由多个机器人协作完成烹饪。虽然90%的情况都顺利完成,但偶尔也会出现“我要洋葱圈”却变成了“多加洋葱”,或者漏掉某些食物的情况。更糟糕的情况是,如果顾客存在食物过敏,后果可能非常严重。 案例三:购物比价智能体误导消费者 另一个案例中,比价智能体推荐了价格便宜的商品,却错误地给出了价格更高的网站链接。如果智能体被设置成自动下单,消费者就可能多花冤枉钱。 这些问题揭示,即使是看似简单的任务,AI智能体也可能犯下代价高昂的错误。过去一年,就有AI生成的航空公司优惠券被判定为具有法律约束力的案例,还有AI生成的法律引用文件出错,开发商不得不向法庭道歉。 如何避免智能体犯错? 塔库尔认为,目前最可行的办法是增加人为确认步骤,例如让顾客确认点餐内容。然而,这种方式却违背了开发智能体的初衷——减少人为干预。 业内的一种主流思路是再增加一个“裁判”型智能体,负责监督其他智能体的运行情况,及早发现并纠正错误。但专家们也担心,这种方案可能导致智能体系统变得臃肿复杂。 法律层面的挑战 近期旧金山举行的一场法律会议上,包括OpenAI的高级法律顾问约瑟夫·费尔曼(Joseph Fireman)在内的法律人士认为,现行法律会在一定程度上让发出指令的用户承担部分责任,特别是在用户被明确告知智能体的限制时。 但另一些法律专家提出,普通消费者不可能强迫企业承担责任,尤其在用户甚至可能依赖智能体去审核法律条款的情景下,情况将更加复杂。Anthropic公司的法律顾问丽贝卡·雅各布斯(Rebecca Jacobs)也指出:“智能体是否能够代表用户绕开隐私政策和服务条款,将成为一个非常有趣的问题。” 律师达扎·格林伍德(Dazza Greenwood)则呼吁企业在智能体出错率过高时谨慎行事:“如果你的‘加洋葱’失误率高达10%,那么根本不该急于上线。” 总结:现在还不能完全放心地交给AI智能体 AI智能体技术虽然前景广阔,但显然仍有许多问题需要解决。从技术角度看,我们距离真正无需人为干预、彻底可靠的智能体还很远;而从法律角度,AI犯错后的责任归属更是一个巨大的难题。因此,目前用户还无法安心地“翘起脚”完全依靠智能体。
#AI责任
#AI智能体
#法律责任
#技术伦理
#自主行动AI
分享
评论 0
0
中国网-央视新闻客户端
5个月前
大学生论文“AI味儿”渐浓 多所高校为AI工具使用立规矩
#大学生
#论文
#AI工具
#高校规章制度
#技术伦理
分享
评论 0
0
凤凰网-蓝鲸新闻
5个月前
患者带DeepSeek看病愁坏医生?业内:AI不为建议担责
#DeepSeek诊断与医生一致引发医疗界热议· 8 条信息
#DeepSeek
#AI医疗
#医疗责任
#医生挑战
#技术伦理
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞