人工智能揭秘:機器學習如何模仿人類思維

Featured Image
人工智能(AI)到底是什么呢?最好的方式是将其视为一种近似人类思维的软件。它并不完全相同,也不是更好或更差,但即使是对人类思维的粗略模仿也可以用来完成一些任务。但请不要将其误认为是真正的智能!AI也被称为机器学习,这两个术语在很大程度上是等效的,尽管有点误导。机器真的能够学习吗?智能真的能够被定义,更不用说人工创建了吗?AI这个领域,事实上,与问题有关,与答案一样重要,与机器是否做到有关,与我们的思维方式有关。今天的AI模型背后的概念实际上并不新,它们可以追溯几十年之前。但过去十年的进步使得可以在越来越大的规模上应用这些概念,从而产生了ChatGPT的令人信服的对话和令人毛骨悚然的稳定扩散艺术。我们编写了这个非技术指南,让任何人都有机会理解今天的AI是如何工作以及为什么工作。 * [AI工作原理]( * [AI可能出错的地方]( * [训练数据的重要性]( * [“语言模型”如何生成图像]( * [关于AGI接管世界的问题 AI的工作原理,为什么它像一个秘密的章鱼 ———————————————— 尽管存在许多不同的AI模型,但它们往往共享一个共同的特点,即大型统计模型,用于预测模式中最可能的下一步。这些模型实际上并不“知道”任何东西,但它们非常擅长检测和延续模式。计算语言学家Emily Bender和Alexander Koller在使用“超智能深海章鱼”的概念中最生动地阐释了这个概念。想象一下,一个章鱼,它正好用一个触手靠在两个人正在用来交流的电报线上。尽管它不懂英语,实际上对语言或人类没有任何概念,但章鱼仍然可以建立起一个非常详细的统计模型来检测它所感知到的点和划线。例如,尽管它不知道某些信号是人类在说“你好吗”和“谢谢”,而且如果它知道这些词的含义,它也不知道,但它可以清楚地看到这个点和划线的模式总是在其他点和划线之后出现,但从不在其之前出现。多年来,章鱼学到了很多模式,学得很好,甚至可以切断连接并进行令人信服的对话!直到出现了它从未见过的词,这时它就没有先例可以回应了。 ![Image **Image ** Bryce Durbin / TechCrunch 这个比喻非常贴切,用于描述被称为“大型语言模型”(LLMs)的AI系统。这些模型驱动着ChatGPT等应用程序,它们就像大脑,它们不“理解”语言,而是通过数学方式对它们在数十亿篇文章、书籍和记录中发现的模式进行详尽的“绘图”。正如作者在文章中所说:“由于只有形式作为训练数据可用,\[章鱼\]没有学到意义。”给定一个问题等提示,当AI在地图上找到与之最相似的模式时,它会预测下一个单词,然后是下一个,再下一个,依此类推。这是一个巨大规模的自动完成。鉴于语言的结构良好且AI已经消化了大量信息,它们所能产生的东西令人惊讶!AI能做什么(和不能做什么) ————————– ![Image 2: ai assisted **Image ** Bryce Durbin / TechCrunch **Image ** Bryce Durbin / TechCrunch 我们仍在学习AI能做什么和不能做什么-尽管这些概念很旧,但这种大规模实施技术是非常新的。一些事
AI(人工智能)到底是什麼呢?最好的方式是將其視為一種近似人類思維的軟件。它並不完全相同,也不是更好或更差,但即使是對人類思維的粗略模仿也可以用於完成一些任務。但請不要將其誤認為是真正的智能!AI也被稱為機器學習,這兩個術語在很大程度上是等效的,儘管有點誤導。機器真的能夠學習嗎?智能真的能夠被定義,更不用說人工創建了嗎?AI這個領域,事實上,與問題有關,與答案一樣重要,與機器是否做到有關,與我們的思維方式有關。今天的AI模型背後的概念實際上並不新,它們可以追溯幾十年之前。但過去十年的進步使得可以在越來越大的規模上應用這些概念,從而產生了ChatGPT的令人信服的對話和令人毛骨悚然的穩定擴散藝術。我們編寫了這個非技術指南,讓任何人都有機會理解今天的AI是如何工作以及為什麼工作。 * [AI工作原理]( * [AI可能出錯的地方]( * [訓練數據的重要性]( * [“語言模型”如何生成圖像]( * [關於AGI接管世界的問題 AI的工作原理,為什麼它像一個秘密的章魚 ———————————————— 雖然存在許多不同的AI模型,但它們往往共享一個共同的特點,即大型統計模型,用於預測模式中最可能的下一步。這些模型實際上並不“知道”任何東西,但它們非常擅長檢測和延續模式。計算語言學家Emily Bender和Alexander Koller在使用“超智能深海章魚”的概念中最生動地闡釋了這個概念。想像一下,一個章魚,它正好用一個觸手靠在兩個人正在用來交流的電報線上。儘管它不懂英語,實際上對語言或人類沒有任何概念,但章魚仍然可以建立起一個非常詳細的統計模型來檢測它所感知到的點和劃線。例如,儘管它不知道某些信號是人類在說“你好嗎”和“謝謝”,而且如果它知道這些詞的含義,它也不知道,但它可以清楚地看到這個點和劃線的模式總是在其他點和劃線之後出現,但從不在其之前出現。多年來,章魚學到了很多模式,學得很好,甚至可以切斷連接並進行令人信服的對話!直到出現了它從未見過的詞,這時它就沒有先例可以回應了。 ![Image **Image ** Bryce Durbin / TechCrunch 這個比喻非常貼切,用於描述被稱為“大型語言模型”(LLMs)的AI系統。這些模型驅動著ChatGPT等應用程序,它們就像大腦,它們不“理解”語言,而是通過數學方式對它們在數十億篇文章、書籍和記錄中發現的模式進行詳盡的“繪圖”。正如作者在文章中所說:“由於只有形式作為訓練數據可用,\[章魚\]沒有學到意義。”給定一個問題等提示,當AI在地圖上找到與之最相似的模式時,它會預測下一個單詞,然後是下一個,再下一個,依此類推。這是一個巨大規模的自動完成。鑒於語言的結構良好且AI已經消化了大量信息,它們所能產生的東西令人驚訝!AI能做什麼(和不能做什麼) ————————– ![Image 2: ai assisted **Image ** Bryce Durbin / TechCrunch **Image ** Bryce Durbin / TechCrunch 我們仍在學習AI能做什麼和不能做什麼-儘管這些概念很舊,但這種大規模實施技術是非常新的。一些事

Share this content: