Discuz! Board

 找回密碼
 立即註冊
搜索
熱搜: 活動 交友 discuz
查看: 1|回復: 0

LaMDA 是否有权获得程序代表?

[複製鏈接]

1

主題

1

帖子

5

積分

新手上路

Rank: 1

積分
5
發表於 15:09:43 | 顯示全部樓層 |閱讀模式

最近,谷歌软件工程师Blake Lemoine [1]的声明令全世界感到惊讶,他表示,他确信该公司的人工智能 (AI) 模型(称为对话应用程序语言模型(LaMDA))是有感知的,即,一台有思想、有意识的机器。



根据 Lemoine 的叙述,在他与该模特的一次采访中,LaMDA 要求联系一名律师来代表他的权利,在通过他的演讲进行会面后,IA 会选择聘请法律服务。
在我们讨论配备人工智能的机器是否有权成为流程一部分的可能性之前,有必要对该主题进行一些考虑。

LaMDA是Language Model for Dialogue Applications的缩写,是谷歌于2017年设计的人工智能模型。它托管在云中,根据网络上的数百万条文本进行训练[ 2]。那么这种用于对话应用的语言模型可以有意识吗?

答案是否定的,并且它得到了对在语言领域工作的人工智能模型的开发和运作如何发生的理解的支持。该系统从初始单词序列展开,这意味着 LaMDA 可以根据初始序列预测下一个单词甚至下一个整个段落。由于该模型是基于大量数据进行训练的,因此它能够做出非常复杂且令人惊讶的预测。

因此,当通过问题与 LaMDA 互动时,模型的行为方式与人类不同。该模型不会分析问题的含义并反思答案,而是仅将问题处理为初始术语序列,并预测最有可能完成初始序列的术语序列。

这个高度复杂但令人惊讶的过程纯粹是通过数学计算来完成的,这些计算越来越使人工智能机器的性能变得如此复杂,以至于它们看起来像人类。但他们不是。

将有知觉的品质归因于 LaMDA 的困难渗透到了知觉概念本身。因为,正如谷歌工程师本人所承认的那样,聊天机器人聘请律师的权利是基于对人格的广泛定义,而人类和个人将是两个不同的物种。人类只是一个生物学术语,而 LaMDA 即使不是人类,也有意识。

作为当事人、提交人或被告出庭并在法律关系中充分享有行使自身权利的 电报号码数据 程序能力是基于当事人、自然人、人类的假设有权利和义务的能力。

就民法而言,自然人是指具有行为能力的人。它是从出生起就享有权利和义务的主体[3]。

对众生状况的认识,即那些被理解为具有感情的众生,因此能够体验快乐和痛苦,并不赋予他们进行判断的能力。而且,按照这些思路,纽约上诉法院在最近的一项裁决中裁定,大象哈皮不能被视为一个人,因此无权请求人身保护令,因为这是一项措施这本身就引发了对非法禁闭人类的争议 [4]。



因此,即使我们通过一个可能的假设练习,将 LaMDA 视为有感情的生物,就像动物一样,必要的结论是,即使在这种情况下,他也有权聘请律师并由代表代表程序上。

当我们谈论像 LaMDA 这样的系统时,最紧迫的争论是努力防止它出现偏见。为系统提供数据及其来源的选择是高度相关的,但由于我们的沟通反映了我们的倾向,机器以这种方式学习是很自然的。

正如 Julio Gonzalo Arroyo [5] 所说,挑战在于在消除训练数据中的趋势而不失去代表性之间取得平衡。而且,鉴于人工智能在使用自然语言开发的产品和服务中的使用呈指数级增长,我们与机器的交互将越来越类似于人类的体验。


回復

使用道具 舉報

您需要登錄後才可以回帖 登錄 | 立即註冊

本版積分規則

Archiver|手機版|自動贊助|z

GMT+8, 00:57 , Processed in 0.035996 second(s), 19 queries .

抗攻擊 by GameHost X3.4

Copyright © 2001-2021, Tencent Cloud.

快速回復 返回頂部 返回列表
一粒米 | 中興米 | 論壇美工 | 設計 抗ddos | 天堂私服 | ddos | ddos | 防ddos | 防禦ddos | 防ddos主機 | 天堂美工 | 設計 防ddos主機 | 抗ddos主機 | 抗ddos | 抗ddos主機 | 抗攻擊論壇 | 天堂自動贊助 | 免費論壇 | 天堂私服 | 天堂123 | 台南清潔 | 天堂 | 天堂私服 | 免費論壇申請 | 抗ddos | 虛擬主機 | 實體主機 | vps | 網域註冊 | 抗攻擊遊戲主機 | ddos |