来源:中国经营报
4月14日消息,据外媒援引内华达州的一份文件称,特斯拉、Twitter和SpaceX的首席执行官埃隆·马斯克(elon musk)于3月9日注册了一家新的人工智能(AI)公司,马斯克担任新公司的唯一董事。马斯克家族办公室主任、马斯克神经网络公司Neuralink首席执行官贾里德·比尔查尔(Jared Birchall)担任秘书一职。在此之前,据美国媒体报道,马斯克在Twitter内部启动了一个AI项目,为此他已经购买了大约1万个GPU(图形处理器)芯片,并开始招募AI人才。
图片来源:由** AI生成
随后在4月18日,马斯克在接受福克斯采访时表示,开始制造一个最大程度寻求真相的人工智能,可能会被称为“TruthGPT”。4月20日,就在微软宣布将Twitter从其广告平台中删除后,马斯克发推文回应称,“他们(指微软及其投资的OpenAI)非法使用Twitter数据进行训练。诉讼时间到了。”
马斯克最近的举动引起了业界的广泛猜测——马斯克将亲自入局做AI,以对抗OpenAI的对话机器人ChatGPT及其背后的GPT模式。鉴于新公司X.AI的战略定位和业务范围,以及马斯克推文中提到的“诉讼”是否会付诸实践,《第一财经日报》记者通过电子邮件向特斯拉和马斯克求证,截至发稿前未得到回复。
值得注意的是,马斯克旗下的几家公司——特斯拉、SpaceX、太阳城、Neuralink和Twitter——都使用甚至依赖AI技术;另一方面,从2014年到现在,马斯克也一直在持续发声,提醒对AI保持高度警惕,呼吁监管确保AI的安全性和可控性。虽然声明和执行往往不一定一致,但现在就判断马斯克的声音或行动显然还为时过早。不过,人们或许可以从马斯克看似“矛盾”的AI观中一窥其“野心”,并探究当前大火的AI带来了哪些风险和挑战。
马斯克的X“野心”?
需要注意的是,几乎在注册X.AI的同一时期,马斯克还注册了X Holdings Corp和X Corp,这两家公司,前者的意思是控股公司,后者是作为X Corp .的母公司。据外媒4月14日报道,马斯克去年10月收购的Twitter公司已经并入实体公司中的X Corp .马斯克在给所有Twitter员工的邮件中宣布,Twitter员工将获得X Corp .的股票。
“X”这个名字和马斯克的关系很深。1999年3月,马斯克创办了他的第二家创业公司,名为X.com。X.com在发展和竞争中经历了一次合并,于2001年6月更名为PayPal。次年,它被易贝以15亿美元收购。马斯克还被解除了X.com发展首席执行官的职务,直到他离开。2017年,马斯克从易贝买回了域名from。到2020年12月,马斯克重申了他对X这个名字的支持。2022年10月,随着Twitter收购案的推进,马斯克在Twitter上表示,“收购Twitter是创造X这个通用应用的催化剂。”当时马斯克并没有明确X的目标,只是考虑把Twitter变成一个“超级微信”。
钱逊智库合伙人龚斌认为,“马斯克的思维武器是第一原理,即一切回到源头,回到基本的数学规律、物理规律、化学原理等。要看到本质。从他的所作所为可以看出,他的处事方式是‘如果一件事在理论上成立,并且在理论上能做到最好,那么我们就应该尽力去做’。”
美国作家阿什利·万斯(Ashley Vance)写的《钢铁侠在硅谷:埃隆·马斯克(elon musk)的冒险生活》(Iron Man in Silicon Valley:The Adventure Life)一书也提到,“很长一段时间,他一直想让世界知道,他不是在跟风或发财,而是在追求一个整体计划。”马斯克告诉笔者,“我喜欢把那些对未来真正重要和有价值的技术以某种方式变成现实。”
不难看出,马斯克亲自创办了一家AI公司来对抗OpenAI,他批评open AI处于“闭源”、“逐利”、“被微软控制”的现状。中华全国M&A协会信用管理委员会专家安永光认为,马斯克可能会根据自己的AI理念乃至世界观,采取研究和应用AI技术解决人类面临的重大问题、加强AI伦理内部监督机制、与相关组织和机构合作等措施,促进人类对AI技术的使用和控制,助力人类社会发展。
“谨慎”由来已久。
今年4月中旬,马斯克在接受福克斯采访时警告称,人工智能可能会导致“文明的毁灭”,并支持“政府对AI的监管,尽管被监管并不好玩”。一旦AI“可能处于控制地位,制定法规可能就来不及了”。
3月29日,非营利组织“未来生命研究所”发表联名信,呼吁“所有AI实验室立即暂停训练比GPT-4更强大的AI系统至少6个月”。马斯克在这个* * *签名列表中排名第一。
安永光指出,马斯克多年来对AI的警惕和戒心与其利用AI等新技术拓展商业版图并不矛盾。他看到了新技术的巨大潜力和价值,同时也意识到了AI技术发展带来的潜在威胁和风险。
事实上,马斯克对AI的警惕由来已久。本报记者综合社交媒体、公开发言、媒体报道、行业及行业会议发言等公开渠道不完全统计。从2014年至今,马斯克已经数十次公开表示对AI的高度警惕,呼吁确保安全。继续表达对AI的担忧。尤其是在2018年的一次采访中,马斯克直言“人工智能比核武器更危险”。记者注意到,马斯克多年来对AI的“戒心”大致可以归纳为两个层面:一是担心人工智能的进化可能脱离人类的控制,从而对人类造成负面影响甚至潜在危险;二是呼吁加强对人工智能的监管,确保其安全性和可控性。
需要指出的是,在马斯克担心AI失控的同时,他并不否认AI技术的优势以及对商业和社会的驱动力。事实上,被马斯克诟病的OpenAI,无论是大模型训练还是产品服务,都充满了“求生欲”。OpenAI表示,目前还没有GPT-5的训练计划。当GPT-4模型发布时,它还说“花了6个月的时间使GPT-4更安全和更一致”。4月25日,OpenAI在ChatGPT available market推出了一个新控件,允许用户关闭聊天记录。所有禁止聊天历史中发生的任何对话都不会用于训练OpenAI的模型,新的对话将保留30天。
与此同时,包括意大利、德国等欧洲国家、美国和中国在内的相关监管机构或部门也开始关注和探索生成性AI的监管路径。4月11日,中国国家互联网信息办公室起草了《生成式人工智能服务管理办法(征求意见稿)》,即日起至5月10日向社会公开征求意见。
艾***不同意见。
马斯克关于AI可能失控甚至威胁人类的言论是未雨绸缪还是杞人忧天?显然,这在现阶段还是一个见仁见智的问题。马斯克在全球拥有大量支持者,也有反对和质疑的声音。
上海申伦律师事务所夏海龙认为,在人类还没有完全理解自己的“意识”的情况下,用空创造意识显然是不可能的,所以生成性ai本质上还是对人类语言模式的机械模仿,不存在进化出人形意识的可能性。从现在来看,生成性AI对社会和法律的影响只是“类似于汽车时间造成的影响”。目前只能在内容合规、网络安全等几个传统维度上要求监管。后期更细化的监管措施,可能需要生成式AI应用的进一步深化和普及。
毫无疑问,生成式AI的热潮正在给个人信息保护带来一些挑战和风险。中国科学院信息工程研究所张逸飞发布文件《大语言模型中个人信息保护问题探讨》指出,虽然大语言模型(LLM)具有巨大的潜力和应用价值,但也给个人信息保护带来了一些挑战和风险,主要包括数据源、数据处理、数据安全和倾向性归纳等。
文章分析,LLM通常使用来自互联网的公开文本数据作为预训练数据,其中可能包含用户的一些个人信息,如姓名、年龄、性别、职业、兴趣爱好、社会关系等。这些信息可能会在不经意间被LLM学习记忆,在后续的应用中泄露。在数据处理方面,LLM在预训练和微调过程中需要对数据进行采集、存储、分析和处理,可能会侵犯用户的个人信息权,如知情权、选择权和删除权。用户可能没有足够的意识和能力来保护自己的个人信息,也没有足够的透明度和监督机制来确保数据处理者遵守相关的法律法规和道德规范。在安全方面,LLM由于参数庞大,需要借助分布式计算和云服务进行训练和部署,增加了数据被窃取、篡改、滥用或泄露的风险。LLM的模型参数也可能包含一些敏感信息,如果被恶意攻击者获取,可能导致用户的个人信息被还原或推断。此外,LLM可能在应用场景中分析、预测或推荐用户的个人信息,可能影响用户的人身自由、尊严和权利,带来歧视、偏见、诱导等问题,甚至被用于产生违背社会主义核心价值观的有害信息,对社会造成危害。用户可能没有足够的知识和能力来判断LLM输出结果的可靠性和合理性,也没有有效的方式和机制来纠正或投诉LLM的错误或不公平的决策。
本网站声明:网站内容来源于网络。如有侵权,请联系我们,我们会及时处理。
温馨提示:注:内容来源均采集于互联网,不要轻信任何,后果自负,本站不承担任何责任。若本站收录的信息无意侵犯了贵司版权,请给我们来信(j7hr0a@163.com),我们会及时处理和回复。
原文地址"马斯克 不争吵,马斯克对ai的看法":http://www.guoyinggangguan.com/qkl/153072.html。

微信扫描二维码关注官方微信
▲长按图片识别二维码