新一代人工智能引发了研究人员的担忧,但科技界似乎对此无动于衷(AI生成图像)
去年,学者贾森·萨多夫斯基(Jathan Sadowski)用一个比喻来描述人工智能程序的衰退,他创造了“哈布斯堡人工智能”(Habsburg AI)这个词。
哈布斯堡家族曾是欧洲最显赫的王室之一,但由于几个世纪的近亲繁殖,他们的血统最终走向了衰败。
近期的研究显示,支持ChatGPT等产品的人工智能程序在反复使用自己的数据时,也会经历类似的崩溃。
萨多夫斯基在接受法新社采访时表示:“我认为‘哈布斯堡人工智能’这个词已经非常贴切了。”他补充说,这个词“将越来越能反映我们对人工智能系统的看法”。
最终的担忧是,人工智能生成的内容可能会淹没网络,使得聊天机器人和图像生成器变得无用,并使一个价值数万亿美元的产业陷入混乱。
然而,其他专家认为这个问题被夸大了,或者是可以解决的。
许多公司热衷于使用所谓的合成数据来训练人工智能程序。这种人工生成的数据用于增强或替代真实数据。它比人工制作的内容更便宜,但也更容易预测。
澳大利亚莫纳什大学(Monash University)的新兴技术讲师萨多夫斯基表示:“对于构建人工智能系统的研究人员和公司来说,一个悬而未决的问题是,多少合成数据才算太多。”
- “疯牛病” -
训练人工智能程序,在业界被称为大型语言模型(LLM),涉及从互联网上抓取大量文本或图像。
这些信息被分解成数万亿个机器可读的小块,称为令牌。
当被问及一个问题时,像ChatGPT这样的程序会选择并组装令牌,以符合其训练数据中最可能的序列。
但即使是最先进的人工智能工具也会产生谎言和胡言乱语,批评者长期以来一直担心,如果一个模型依赖自己的输出会发生什么。
7月下旬,《自然》(Nature)杂志上发表的一篇题为《人工智能模型在接受递归生成的数据训练时崩溃》的论文引发了广泛讨论。
作者描述了模型如何迅速丢弃原始数据集中的稀有元素,输出结果退化为“胡言乱语”。
一周后,莱斯大学和斯坦福大学的研究人员发表了一篇题为“自我消费生成模型发疯”的论文,得出了类似的结论。
他们测试了生成图像的人工智能程序,并表明,当他们将人工智能生成的数据添加到底层模型时,输出变得更加通用,并且充斥着不受欢迎的元素。
他们将这种模型崩溃称为“模型自噬紊乱”(MAD),并将其与疯牛病进行比较。疯牛病是一种致命的疾病,是由将死牛的残留物喂给其他牛而引起的。
- “末日场景” -
这些研究人员担心,人工智能生成的文本、图像和视频正在清除网络上可用的人造数据。
莱斯大学研究报告的作者之一理查德·巴拉尼克在一份声明中说:“如果几代人都不受控制,MAD可能会毒害整个互联网的数据质量和多样性,这是一个世界末日。”
然而,业内人士并不担心。
Anthropic和Hug Face是该领域的两大领导者,他们以对技术采取道德方法而自豪,他们都告诉法新社,他们使用人工智能生成的数据来微调或过滤他们的数据集。
Hug Face公司的机器学习工程师安东·洛日科夫说,《自然》杂志的论文提供了一个有趣的理论视角,但其灾难场景并不现实。
他说:“在现实中,用多轮合成数据进行训练是不可能的。”
然而,他说,研究人员和其他人一样,对互联网的现状感到沮丧。
“互联网上有很大一部分是垃圾,”他说,并补充说,Hug Face公司已经在清理数据方面做出了巨大努力,有时会丢弃多达90%的数据。
他希望网络用户能够通过简单地不参与生成内容来帮助清理互联网。
促销听最新的歌曲,只有在JioSaavn.com
他说:“我坚信,人类将比模型更早看到这些影响,并捕捉到生成的数据。”
本文来自作者[svs]投稿,不代表立场,如若转载,请注明出处:http://asiaamour.com/post/2659.html
评论列表(4条)
我是的签约作者“svs”!
希望本篇文章《人工智能模型近亲繁殖引发警示》能对你有所帮助!
本站[]内容主要涵盖:国足,欧洲杯,世界杯,篮球,欧冠,亚冠,英超,足球,综合体育
本文概览: 新一代人工智能引发了研究人员的担忧,但科技界似乎对此无动于衷(AI生成图像)...