學(xué)習(xí)AI大模型的3件事你必須知道,業(yè)內(nèi)知識(shí),速看

4 評(píng)論 3964 瀏覽 21 收藏 30 分鐘
🔗 B端产品经理需要更多地关注客户的商业需求、痛点、预算、决策流程等,而C端产品经理需要更多地关注用户的个人需求

從提高搜索效率、輔助學(xué)習(xí)到公文寫(xiě)作和法律咨詢,AI的應(yīng)用場(chǎng)景日益廣泛。本文將詳細(xì)介紹大模型的基本概念、工作原理及其在2024年的主要應(yīng)用,幫助讀者全面了解AI大模型的潛力和實(shí)際用途。

你是否遇過(guò)這種情況?

想搜索一個(gè)問(wèn)題,搜索出來(lái)的答案亂七八糟?

特別是防不勝防的廣告!嚴(yán)重干擾了我們的判斷?

有了AI之后,你只需要輸入想要搜索的問(wèn)題,比如搜索“小米蘇7是否值得買?他的配置如何?”這樣一個(gè)問(wèn)題。

AI就能幫你進(jìn)行全網(wǎng)分析,總結(jié)答案!

這是不是比傳統(tǒng)的搜索方式更加高效方便,同時(shí)還避免了廣告的干擾!直擊想要的答案!

今天小俠將用一個(gè)視頻,帶你快速認(rèn)識(shí)AI!

這期視頻作為【AI入門(mén)科普課】系列視頻的第二期作品,下面我將從:

  1. 關(guān)于“大模型”,你必須知道的幾件事;
  2. 大模型是如何工作的;
  3. 2024年大模型常見(jiàn)應(yīng)用

三個(gè)方面進(jìn)行講解,看完之后你將收獲:

  1. 大模型的特點(diǎn)和重要概念以及工作方式;
  2. 了解大模型的基本情況和產(chǎn)品;
  3. 3解大模型的應(yīng)用場(chǎng)景及創(chuàng)業(yè)機(jī)會(huì);

廢話不多說(shuō),正片馬上開(kāi)始。

一、關(guān)于“大模型”,你必須知道的幾件事;

從2022年底ChatGPT的一鳴驚人,再到持續(xù)進(jìn)行的”百模大戰(zhàn)”,”大模型”已經(jīng)逐漸成為了技術(shù)和公眾領(lǐng)域的熱點(diǎn)。

大模型是人工智能領(lǐng)域的一個(gè)重要里程碑,有人曾經(jīng)類比,大模型的發(fā)明相當(dāng)于人類學(xué)會(huì)使用火的時(shí)刻。

這種類比,足以看出大模型在計(jì)算機(jī)技術(shù)領(lǐng)域的重要性。

在對(duì)大模型進(jìn)行深入了解之前,我們有必要回望一些人工智能的重要概念,這不僅可以讓我們了解大模型是如何被塑造的,更能幫助我們?nèi)娴乩斫獯竽P偷脑砗蜐撃堋?/p>

人工智能也稱之為AI,是一門(mén)使機(jī)器模擬人類智能過(guò)程的學(xué)科,其中具體包括學(xué)習(xí)、推理、自我修正、感知和處理語(yǔ)言等功能。人工智能涉及計(jì)算機(jī)科學(xué)、數(shù)學(xué)、心理學(xué)等眾多領(lǐng)域的知識(shí),通過(guò)創(chuàng)建能夠?qū)崿F(xiàn)智能行為的算法或軟件系統(tǒng),來(lái)表現(xiàn)出與人類的智能行為相似的特性。

人工智能按照技術(shù)實(shí)現(xiàn)的不同可被劃分為多個(gè)子領(lǐng)域,各個(gè)子領(lǐng)域之間往往相互關(guān)聯(lián)和影響。

關(guān)于這方面的知識(shí)小俠之前分享過(guò)【AI入門(mén)科普第一課,一張圖看懂AI關(guān)系網(wǎng)】的視頻,感興趣的伙伴可以進(jìn)入主頁(yè)翻看學(xué)習(xí),這里就不做過(guò)多講解。

1. 大模型的到來(lái)!

2021年,斯坦福大學(xué)的研究員團(tuán)隊(duì)發(fā)表了一篇論文,提出了Foundational Models,中文意思是基礎(chǔ)模型,即大模型的概念。簡(jiǎn)單來(lái)說(shuō),它是一類具有大量參數(shù),通常在十億以上,能在極為廣泛的數(shù)據(jù)上進(jìn)行訓(xùn)練,并適用于多種任務(wù)和應(yīng)用的預(yù)訓(xùn)練深度學(xué)習(xí)模型。

2022年11月,OpenAI公司發(fā)布了ChatGPT。這是一種先進(jìn)的人工智能語(yǔ)言模型,專為對(duì)話交互而設(shè)計(jì),具有強(qiáng)大的自然語(yǔ)言理解和生成能力,可以完成撰寫(xiě)論文、郵件、腳本、文案、翻譯、代碼等任務(wù)。ChatGPT的發(fā)布標(biāo)志著AI大模型在語(yǔ)言理解與生成能力上的重大突破,對(duì)全球AI產(chǎn)業(yè)產(chǎn)生了深遠(yuǎn)影響,開(kāi)啟了人工智能大模型應(yīng)用的新篇章。

大模型的使用方法非常簡(jiǎn)單,我們可以直接向大模型提出需求,并獲得生動(dòng)翔實(shí)的答復(fù),例如:

可能給你會(huì)好奇,大模型是如何通過(guò)訓(xùn)練得到的?

我們可以看看下面這張圖:

從圖中可以看到,大模型的訓(xùn)練整體上分為三個(gè)階段:預(yù)訓(xùn)練、SFT以及RLHF,其中SFT是指監(jiān)督微調(diào),RLHF是指基于人類反饋的強(qiáng)化學(xué)習(xí)。

下面一起看看三個(gè)階段的具體含義:

1.1. 預(yù)訓(xùn)練階段

預(yù)訓(xùn)練階段類似AI從嬰兒成長(zhǎng)為中學(xué)生的階段。

這個(gè)階段,AI就像一個(gè)小孩子,它在成長(zhǎng)過(guò)程中需要學(xué)習(xí)很多東西。在它還小的時(shí)候,就像嬰兒一樣,它需要吸收很多信息,比如學(xué)習(xí)語(yǔ)言是怎么說(shuō)的,了解世界是什么樣子的。

在預(yù)訓(xùn)練的時(shí)候,AI會(huì)接觸到各種各樣的文字材料,就像是小孩子聽(tīng)大人說(shuō)話、看書(shū)一樣。它會(huì)學(xué)習(xí)語(yǔ)言的規(guī)律,比如哪些詞經(jīng)常一起出現(xiàn),句子是怎么組織的。但是,這時(shí)候的AI還不太懂得怎么真正理解人們的意思,就像小孩子可能還不太明白大人的某些話。

比如,如果你問(wèn)AI:“埃菲爾鐵塔在哪里?”它可能不會(huì)回答“在法國(guó)”,而是可能會(huì)說(shuō)一些它之前看到過(guò)的東西,比如“東方明珠在上海”,這顯然不是我們想要的答案。

為了讓AI能夠更好地理解我們的問(wèn)題并給出正確的答案,我們需要進(jìn)行一個(gè)叫做“監(jiān)督微調(diào)”的過(guò)程。這個(gè)過(guò)程就像是老師教小孩子怎么回答問(wèn)題一樣,我們會(huì)告訴AI正確的答案應(yīng)該是什么,讓它學(xué)會(huì)如何根據(jù)我們的問(wèn)題給出合適的回答。

總的來(lái)說(shuō),AI的預(yù)訓(xùn)練階段就像是小孩子學(xué)習(xí)語(yǔ)言和知識(shí)的階段,而監(jiān)督微調(diào)就像是老師教導(dǎo)小孩子如何更好地理解問(wèn)題和給出答案。雖然AI的預(yù)訓(xùn)練和人類的成長(zhǎng)過(guò)程有些相似,但它們還是有一些不同的地方。

1.2. 監(jiān)督微調(diào)階段

監(jiān)督微調(diào)階段類似AI從中學(xué)成長(zhǎng)為大學(xué)生的階段。

這個(gè)階段,AI的成長(zhǎng)過(guò)程就像我們上學(xué)一樣。在中學(xué)的時(shí)候,我們學(xué)的是一些基礎(chǔ)的知識(shí),比如語(yǔ)文、數(shù)學(xué)、科學(xué)等。但是到了大學(xué),我們就會(huì)開(kāi)始學(xué)習(xí)更專業(yè)的知識(shí),比如醫(yī)學(xué)、法律或者金融等。

監(jiān)督微調(diào)的過(guò)程就像是AI上大學(xué),學(xué)習(xí)專業(yè)知識(shí)的階段。在這個(gè)階段,AI會(huì)接觸到很多專業(yè)領(lǐng)域的對(duì)話和知識(shí),比如醫(yī)學(xué)對(duì)話、法律案例等。這樣,當(dāng)有人問(wèn)AI一個(gè)專業(yè)問(wèn)題時(shí),它就能夠給出更專業(yè)、更準(zhǔn)確的答案。

比如,如果你問(wèn)一個(gè)經(jīng)過(guò)監(jiān)督微調(diào)的AI:“埃菲爾鐵塔在哪個(gè)國(guó)家?”它就會(huì)很自信地回答:“在法國(guó)?!倍皇窍裰澳菢?,可能會(huì)給出一些不相關(guān)的答案。

但是,就像人一樣,AI有時(shí)候也會(huì)說(shuō)錯(cuò)話,可能會(huì)說(shuō)出一些不合適的話,比如涉及色情、政治、暴力或者種族歧視的內(nèi)容。這時(shí)候,我們就需要用一種叫做RLHF,也就是基于人類反饋的強(qiáng)化學(xué)習(xí)的方法來(lái)進(jìn)一步訓(xùn)練AI。

1.3. 基于人類反饋的強(qiáng)化學(xué)習(xí)階段

RLHF階段類似于從大學(xué)生步入職場(chǎng)的階段。

想象一下,你剛剛大學(xué)畢業(yè),開(kāi)始工作了。在工作中,你做的事情可能會(huì)得到老板和客戶的表?yè)P(yáng),也可能會(huì)遇到批評(píng)。根據(jù)這些反饋,你會(huì)知道自己哪些地方做得好,哪些地方需要改進(jìn)。然后,你就會(huì)調(diào)整自己的工作方法,盡量讓自己的工作得到更多的好評(píng)。

對(duì)于AI來(lái)說(shuō),RLHF的過(guò)程也差不多。AI就像是新入職場(chǎng)的你,它需要學(xué)會(huì)怎么更好地回答人們的問(wèn)題。在這個(gè)過(guò)程中,AI會(huì)對(duì)同一個(gè)問(wèn)題給出多個(gè)不同的答案,然后人類會(huì)對(duì)這些答案進(jìn)行評(píng)價(jià),就像是給AI的答案打分一樣。

AI會(huì)根據(jù)這些分?jǐn)?shù)來(lái)學(xué)習(xí),它會(huì)想:“哦,原來(lái)這個(gè)答案得到的分?jǐn)?shù)高,人們更喜歡這樣的回答。那我以后就盡量這么回答?!蓖ㄟ^(guò)這種方式,AI會(huì)慢慢學(xué)會(huì)怎么給出更符合人類喜好的答案。

簡(jiǎn)單來(lái)說(shuō),RLHF就是讓AI通過(guò)人們的反饋來(lái)學(xué)習(xí),就像你在工作中根據(jù)老板和客戶的反饋來(lái)提高自己的工作表現(xiàn)一樣。這樣,AI就能變得越來(lái)越懂得如何與人交流,給出更好的答案。

2. 大模型的特點(diǎn)

對(duì)大模型有了基礎(chǔ)的認(rèn)識(shí),下面我們?cè)诳纯创竽P陀心男┨攸c(diǎn)。

對(duì)于基礎(chǔ)大模型來(lái)說(shuō),主要有以下四個(gè)特點(diǎn),分別是:

2.1. 規(guī)模和參數(shù)量龐大

想象一下,AI模型就像是一個(gè)巨大的圖書(shū)館,里面存放著數(shù)不清的書(shū)。每本書(shū)都代表了一種知識(shí)或信息。大模型就像是一個(gè)超級(jí)大的圖書(shū)館,它有從幾億到幾千億本這樣的書(shū)。這些書(shū)也就是參數(shù),它們幫助AI理解和創(chuàng)造非常復(fù)雜和豐富的內(nèi)容,就像圖書(shū)館里的書(shū)可以幫助我們學(xué)習(xí)世界上的各種知識(shí)一樣。

2.2. 適應(yīng)性和靈活性強(qiáng)

把大模型想象成一個(gè)多才多藝的演員,這個(gè)演員可以很快地學(xué)會(huì)扮演不同的角色,無(wú)論是古代的武士還是現(xiàn)代的醫(yī)生。同樣,大模型也可以通過(guò)一些簡(jiǎn)單的調(diào)整,快速適應(yīng)不同的任務(wù),比如從寫(xiě)詩(shī)轉(zhuǎn)換到解答數(shù)學(xué)題,這種能力讓它在不同的領(lǐng)域都能表現(xiàn)出色。

2.3. 廣泛數(shù)據(jù)集的預(yù)訓(xùn)練

大模型在開(kāi)始工作之前,會(huì)接受一種特殊的訓(xùn)練,就像是一個(gè)學(xué)生在正式上課前要閱讀很多書(shū)籍來(lái)獲得基礎(chǔ)知識(shí)。大模型通過(guò)閱讀大量的、各種各樣的數(shù)據(jù),比如文章、圖片等,來(lái)學(xué)習(xí)語(yǔ)言的規(guī)則、圖像的特征等,這樣它就能夠理解和處理各種類型的信息。

2.4. 計(jì)算資源需求大

最后,因?yàn)榇竽P途拖袷且粋€(gè)需要很多資源來(lái)運(yùn)作的工廠。它需要大量的存儲(chǔ)空間來(lái)保存所有的數(shù)據(jù),需要很長(zhǎng)時(shí)間來(lái)“思考”和學(xué)習(xí),也需要很多電力來(lái)驅(qū)動(dòng)它的計(jì)算過(guò)程。同時(shí),它還需要一些特別強(qiáng)大的計(jì)算機(jī)硬件來(lái)支持它的工作,就像工廠需要大型機(jī)器一樣。所有這些都需要很多錢和資源來(lái)支持。

3.大模型的分類

按照大模型的應(yīng)用場(chǎng)景,大致可以劃分為以下四類:

3.1. 大語(yǔ)言模型

大語(yǔ)言模型也稱之為L(zhǎng)LM:是一類專注于自然語(yǔ)言處理(NLP)的大模型,旨在處理語(yǔ)言、文章、對(duì)話等自然語(yǔ)言文本。

這類模型就像是超級(jí)學(xué)霸,非常善于學(xué)習(xí)人類的語(yǔ)言,包括說(shuō)話、寫(xiě)作和對(duì)話。這些學(xué)霸們用一種叫做深度學(xué)習(xí)的方法來(lái)學(xué)習(xí),就像是一個(gè)特別聰明的學(xué)生,用一種特別的學(xué)習(xí)技巧來(lái)掌握知識(shí)。

它們學(xué)習(xí)的內(nèi)容非常廣泛,包括:

  • 語(yǔ)法:就像學(xué)習(xí)句子怎么構(gòu)造一樣。
  • 語(yǔ)義:理解單詞和句子的意思。
  • 語(yǔ)境:知道在不同情況下語(yǔ)言怎么使用。
  • 文化和社會(huì)知識(shí):了解語(yǔ)言背后的文化背景和社會(huì)習(xí)慣。

大語(yǔ)言模型可以做很多事情,比如:

  • 文本生成:自己寫(xiě)文章或者故事。
  • 問(wèn)答系統(tǒng):回答問(wèn)題,就像你現(xiàn)在問(wèn)我問(wèn)題一樣。
  • 文本分類:把文本分到不同的類別里,比如新聞、小說(shuō)等。
  • 機(jī)器翻譯:把一種語(yǔ)言翻譯成另一種語(yǔ)言。
  • 對(duì)話系統(tǒng):和人進(jìn)行對(duì)話,就像聊天機(jī)器人。

現(xiàn)在世界上有名的大語(yǔ)言模型,比如:

  • GPT系列:這是OpenAI制作的,就像是一個(gè)系列的超級(jí)學(xué)霸,每個(gè)都比前一個(gè)更厲害,比如GPT-3、GPT-3.5、GPT-4等。
  • Bard:這是谷歌推出的,就像是一個(gè)特別有創(chuàng)意的作家,能夠?qū)懗龊芏嘤腥さ臇|西。
  • 通義千問(wèn):這是阿里推出的,就像是一個(gè)懂得很多知識(shí)的老師,能夠教我們很多東西。

這些大語(yǔ)言模型就像是超級(jí)助手,幫助我們更好地理解和使用語(yǔ)言。

3.2.多模態(tài)模型

多模態(tài)模型就像是一個(gè)多才多藝的超級(jí)AI,它不僅能讀懂文字,還能看圖、聽(tīng)聲音、看視頻。這個(gè)AI能夠把這些不同的線索(模態(tài))結(jié)合起來(lái),找出它們之間的關(guān)系,就像在破案時(shí)把不同的證據(jù)拼湊起來(lái)一樣。

這些超級(jí)AI能夠做的事情包括:

  • 視覺(jué)問(wèn)答(VQA):就像你給AI一張圖片,然后問(wèn)他圖片里發(fā)生了什么,他會(huì)告訴你答案。
  • 圖像描述生成:AI看了一張圖片后,能夠?qū)懗鲆欢蚊枋鰣D片內(nèi)容的話。
  • 圖文檢索:如果你告訴AI一些關(guān)鍵詞,他能在一大堆圖片中找到相關(guān)的圖片。
  • 文生圖:給AI一段文字,他能夠根據(jù)這段文字創(chuàng)造出一張圖片。

還有幾種特別的AI組合:

  • 視覺(jué)+文本:這種AI既能看圖也能讀字,能做的事情包括圖像字幕(給圖片加文字說(shuō)明),圖文檢索等。
  • 音頻+文本:這種AI既能聽(tīng)懂聲音也能讀字,能做的事情包括把語(yǔ)音轉(zhuǎn)換成文字(語(yǔ)音識(shí)別),或者根據(jù)文字生成語(yǔ)音(語(yǔ)音生成)。
  • 音頻+視覺(jué):這種AI既能聽(tīng)懂聲音也能看到畫(huà)面,比如根據(jù)聲音創(chuàng)造一張圖片(音生圖),或者生成一個(gè)正在說(shuō)話的人臉(演講人臉生成)。

簡(jiǎn)單來(lái)說(shuō),多模態(tài)模型就像是一個(gè)能夠同時(shí)使用眼睛、耳朵和大腦的超級(jí)AI,能夠把看到的、聽(tīng)到的和讀到的信息綜合起來(lái),解決更復(fù)雜的問(wèn)題。

二、大模型是如何工作的

經(jīng)過(guò)上述知識(shí)的學(xué)習(xí),我們對(duì)大模型有了基本的了解,下面我們一起看看大模型是如何工作的!

關(guān)于大模型的工作流程,我們可以將其劃分為兩部分,分別是第一部分分詞化與詞表映射和第二部分生成文本。

下面就具體看看大模型的工作原理。

1. 分詞化(Tokenization)與詞表映射

分詞化就像是我們把一大段話拆成一句一句,然后再把每句話拆成一個(gè)一個(gè)詞的過(guò)程,拆分出來(lái)的詞就叫token。這樣做是為了讓計(jì)算機(jī)能夠更好地理解我們的話。就像我們讀書(shū)時(shí),老師會(huì)讓我們把課文分成段落,然后學(xué)習(xí)每個(gè)段落的意思一樣。

舉個(gè)例子,如果有一個(gè)英文句子: “I want to study AI.”

我們用分詞化的方法把它拆成這樣:

  • I
  • want
  • to
  • study
  • AI
  • .

這樣,計(jì)算機(jī)就可以一個(gè)詞一個(gè)詞地理解這個(gè)句子了。

分詞化有不同的拆法,就像我們有時(shí)候按句子拆,有時(shí)候按段落拆一樣:

  • 詞粒度分詞化:就是把句子拆成一個(gè)個(gè)單詞,這在英語(yǔ)里很常見(jiàn)。
  • 字符粒度分詞化:就是把句子拆成一個(gè)個(gè)字母,這在中文里比較常見(jiàn),因?yàn)橹形拿總€(gè)字都有它自己的意思。
  • 子詞粒度分詞化:就是把單詞拆成更小的部分,比如前綴、詞根和后綴。這樣做的好處是,即使是計(jì)算機(jī)沒(méi)見(jiàn)過(guò)的新詞,只要它是由計(jì)算機(jī)認(rèn)識(shí)的部分組成的,計(jì)算機(jī)也能夠理解。

最后,每個(gè)分出來(lái)的詞也就是token,每個(gè)詞都會(huì)對(duì)應(yīng)一個(gè)數(shù)字也就是token id,這個(gè)數(shù)字就像每個(gè)人都有自己的身份證號(hào)碼一樣。這樣,計(jì)算機(jī)就可以用這些數(shù)字來(lái)處理和分析句子了。

暫時(shí)無(wú)法在飛書(shū)文檔外展示此內(nèi)容

再比如中文語(yǔ)義下的分詞:

假設(shè)我們有這樣一句中文句子: “我愛(ài)北京天安門(mén)。”

在中文分詞化中,我們通常會(huì)遇到以下幾種方法:

1)基于詞典的分詞:這是最常見(jiàn)的分詞方法,就是根據(jù)一個(gè)預(yù)先定義好的詞典來(lái)切分句子。例如:

  • “我”(代詞)
  • “愛(ài)”(動(dòng)詞)
  • “北京”(地名)
  • “天安門(mén)”(地名)

2)基于統(tǒng)計(jì)的分詞:這種方法會(huì)考慮詞頻,即某個(gè)詞在大量文本中出現(xiàn)的頻率。如果”北京天安門(mén)”作為一個(gè)詞組出現(xiàn)的頻率很高,那么這種方法可能會(huì)把”北京天安門(mén)”作為一個(gè)整體來(lái)分詞。

3)基于規(guī)則的分詞:這種方法會(huì)根據(jù)一些特定的規(guī)則來(lái)分詞,比如人名、地名、機(jī)構(gòu)名等的識(shí)別規(guī)則。例如,”北京”和”天安門(mén)”都可能是已知的地名,所以可以這樣分:

  • “我”(代詞)
  • “愛(ài)”(動(dòng)詞)
  • “北京天安門(mén)”(地名)

4)混合分詞方法:在實(shí)際應(yīng)用中,通常會(huì)結(jié)合多種分詞方法來(lái)提高分詞的準(zhǔn)確性。比如,可能會(huì)先用基于詞典的方法分出大部分詞,然后用基于統(tǒng)計(jì)的方法來(lái)處理一些特殊的情況。

5)子詞粒度分詞:對(duì)于新詞或者專有名詞,可能會(huì)采用子詞粒度的分詞方法。比如,如果”天安門(mén)”不是一個(gè)常見(jiàn)的詞,可能會(huì)被分解為”天”和”安門(mén)”。

分詞化后的句子會(huì)被轉(zhuǎn)換成一系列的詞(token),每個(gè)詞對(duì)應(yīng)一個(gè)詞表中的編號(hào)(token id),計(jì)算機(jī)就可以根據(jù)這些編號(hào)來(lái)處理和分析文本了。

在實(shí)際的分詞系統(tǒng)中,分詞的結(jié)果可能會(huì)根據(jù)具體的分詞算法和使用的詞典有所不同。但無(wú)論哪種方法,分詞化的目的是為了讓計(jì)算機(jī)能夠更好地理解中文文本的結(jié)構(gòu)和含義。

2.大語(yǔ)言模型生成文本的過(guò)程

想象一下,大語(yǔ)言模型就像是一個(gè)非常聰明且經(jīng)驗(yàn)豐富的作家,它可以根據(jù)你給它的開(kāi)頭幾句話也就是提示文本內(nèi)容,接著寫(xiě)出接下來(lái)的故事。這個(gè)作家不是一下子就寫(xiě)出整個(gè)故事,而是一句一句地寫(xiě)。

具體來(lái)說(shuō),這個(gè)作家的工作方式是這樣的:

  • 給定提示:你給它一些開(kāi)頭的句子,比如“弼小俠AI課程是”。
  • 預(yù)測(cè)下一個(gè)詞:根據(jù)這些開(kāi)頭的句子,作家會(huì)猜測(cè)接下來(lái)最有可能的詞是什么。比如,它可能會(huì)預(yù)測(cè)下一個(gè)詞是“非常實(shí)用的”。
  • 自回歸過(guò)程:然后,作家把這個(gè)新預(yù)測(cè)的詞“非常實(shí)用的”加到之前的句子中,變成“弼小俠AI課程是非常實(shí)用的”,接著再根據(jù)這個(gè)更新后的句子繼續(xù)猜測(cè)下一個(gè)詞。
  • 重復(fù)預(yù)測(cè):這個(gè)過(guò)程會(huì)一直重復(fù),每次作家都會(huì)根據(jù)當(dāng)前的句子來(lái)預(yù)測(cè)下一個(gè)詞,并把它加進(jìn)去,然后再繼續(xù)預(yù)測(cè)下一個(gè)。
  • 結(jié)束標(biāo)志:直到作家寫(xiě)出一個(gè)特殊的詞,比如“?!保ň涮?hào)),表示這句話說(shuō)完了,或者它寫(xiě)出了我們告訴它的一個(gè)結(jié)束標(biāo)志,比如“<EOS>”也就是句子結(jié)束的意思。又或者它寫(xiě)到了我們規(guī)定的長(zhǎng)度,比如寫(xiě)了20個(gè)詞。

簡(jiǎn)單來(lái)說(shuō),大語(yǔ)言模型就像是一個(gè)根據(jù)開(kāi)頭句子,一句一句寫(xiě)出接下來(lái)內(nèi)容的作家。它通過(guò)不斷地猜測(cè)和添加下一個(gè)詞,直到寫(xiě)出一個(gè)完整的故事或者達(dá)到我們?cè)O(shè)定的結(jié)束條件。這個(gè)過(guò)程就是我們說(shuō)的自回歸。

三、2024年大模型常見(jiàn)應(yīng)用

自從“百模大戰(zhàn)”之后,大模型的應(yīng)用就一直被市場(chǎng)所關(guān)注。

大模型的應(yīng)用非常廣泛,小俠列舉幾個(gè)跟日常掛鉤較為緊密的幾個(gè)場(chǎng)景。

1. AI學(xué)習(xí)助理

如果你是學(xué)生,老師或者是醫(yī)生,會(huì)經(jīng)??春芏鄷?shū)籍!

我們?nèi)四X的記憶力是有限的,如何讓看過(guò)的書(shū)都能記憶下來(lái),并隨時(shí)進(jìn)行查閱?

定制開(kāi)發(fā)一個(gè)Agent學(xué)習(xí)助理是一個(gè)非常好的方法!

借助coze平臺(tái)的Agent開(kāi)發(fā)能力,創(chuàng)建一個(gè)AI學(xué)習(xí)助理幫你完成書(shū)籍的整理和記憶。

打開(kāi)coze開(kāi)發(fā)平臺(tái),點(diǎn)擊主頁(yè)。在主頁(yè)對(duì)話框中選擇創(chuàng)建Bot,輸入:

幫我創(chuàng)建一個(gè)私人AI學(xué)習(xí)助理,名字叫“弼小俠學(xué)習(xí)助理”,功能是幫助我整理知識(shí)和書(shū)籍,便于我隨時(shí)進(jìn)行查找,要求有:1.創(chuàng)建學(xué)習(xí)知識(shí)庫(kù),能夠根據(jù)我的提問(wèn)幫助我從知識(shí)庫(kù)的知識(shí)進(jìn)行查找;2.回答嚴(yán)格來(lái)源于知識(shí)庫(kù),回答的內(nèi)容要提供文章原文。

接下來(lái)AI就會(huì)根據(jù)你的需求幫你自動(dòng)創(chuàng)建一個(gè)學(xué)習(xí)助理Bot。

點(diǎn)擊創(chuàng)建好的Bot,進(jìn)入頁(yè)面可以看到如下頁(yè)面:

先對(duì)人設(shè)進(jìn)行優(yōu)化,點(diǎn)擊優(yōu)化按鈕,AI會(huì)自動(dòng)進(jìn)行人設(shè)和回復(fù)邏輯優(yōu)化,優(yōu)化完畢后根據(jù)自己的需求進(jìn)行一些修改,修改完畢就可以進(jìn)入下一步:

下一步就可以創(chuàng)建知識(shí)庫(kù),將我們準(zhǔn)備好的文章和知識(shí)上傳到知識(shí)庫(kù)中,可以是文本格式,也可以是表格或者圖片。

根據(jù)要求導(dǎo)入文件,AI會(huì)自動(dòng)進(jìn)行內(nèi)容的上傳和處理,處理完成的內(nèi)容如圖所示:

點(diǎn)擊添加到Bot中,剛剛創(chuàng)建的學(xué)習(xí)助理知識(shí)庫(kù)里面就會(huì)顯示你上傳的知識(shí)。

下面我就可以用對(duì)話的形式詢問(wèn)Bot相關(guān)知識(shí)內(nèi)容,小俠這里例舉一個(gè)案例:

通過(guò)對(duì)話,可以看到AI回復(fù)你的方式是調(diào)用知識(shí)庫(kù)中的內(nèi)容進(jìn)行回復(fù)。當(dāng)然小俠這里只是例舉例子,并沒(méi)有對(duì)人設(shè)和知識(shí)庫(kù)進(jìn)行優(yōu)化,如果想要更好的效果需要針對(duì)性優(yōu)化一下,這樣AI會(huì)更加聰明。

2. 公文寫(xiě)作

AI在文本寫(xiě)作方面尤為擅長(zhǎng)。在日常工作中,公文類的寫(xiě)作或多或少都不可避免,如何利用AI進(jìn)行公文寫(xiě)作,方法也非常簡(jiǎn)單。

拿kimi來(lái)舉例,打開(kāi)kimi主頁(yè),點(diǎn)開(kāi)kimi+,選擇公文筆桿子會(huì)話:

假設(shè)你要撰寫(xiě)一個(gè)公司會(huì)議通知,輸入:通知公司全體員工在上午9點(diǎn)開(kāi)例會(huì)的公文,AI就能刷刷刷幫你整理一篇通知文稿,具體效果如下:

3. AI幫你打官司

生活中可能會(huì)出現(xiàn)一些法律糾紛,比如遇到老賴欠你一千萬(wàn)不還,你就可以打開(kāi)通義法睿這款A(yù)I工具,進(jìn)入后輸入你的問(wèn)題,比如:你好,2024年有個(gè)名字叫老賴的老賴欠我一千萬(wàn)不還,我該怎么辦?

可以看到,這個(gè)AI他非常善于處理法律相關(guān)問(wèn)題,當(dāng)然上述只是例舉個(gè)案例,大家不要當(dāng)真。

如果生活中遇到了法律相關(guān)問(wèn)題,前期可以通過(guò)咨詢AI獲得相關(guān)知識(shí),也可以避免上當(dāng)受騙的風(fēng)險(xiǎn)。

同時(shí)AI還提供法律文書(shū)的生成,法律條款檢索等功能。

以上是【AI入門(mén)科普課】系列視頻的第二期作品,希望大家通過(guò)這期作品,掌握AI知識(shí)。

本文由 @弼小俠AI之路 原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載

題圖來(lái)自Unsplash,基于 CC0 協(xié)議

該文觀點(diǎn)僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺(tái)僅提供信息存儲(chǔ)空間服務(wù)。

更多精彩內(nèi)容,請(qǐng)關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號(hào)或下載App
評(píng)論
評(píng)論請(qǐng)登錄
  1. 對(duì)ai知識(shí)感興趣的伙伴,歡迎關(guān)注【弼小俠AI】公眾號(hào),分享更多知識(shí)給大家

    來(lái)自湖北 回復(fù)
  2. 關(guān)注公眾號(hào)【弼小俠AI】,領(lǐng)基地地址

    來(lái)自湖北 回復(fù)
  3. 這篇文章告訴我大模型的重要性:大模型是人工智能領(lǐng)域的一個(gè)重要里程碑,有人說(shuō)大模型的發(fā)明相當(dāng)于人類學(xué)會(huì)使用火的時(shí)刻。這種類比,足以看出大模型在計(jì)算機(jī)技術(shù)領(lǐng)域的重要性。

    來(lái)自中國(guó) 回復(fù)
    1. ??????

      來(lái)自湖北 回復(fù)
专题
90619人已学习13篇文章
不论你是产品经理还是运营,都要具备数据分析基本能力。
专题
12918人已学习14篇文章
良好的交互规范可以很好的帮助企业、团队提高产出,保证用户体验。本专题的文章分享了交互规范指南。
专题
49391人已学习14篇文章
产品经理往往会承担一定的项目管理职能,那么该如何做好项目管理呢?
专题
15659人已学习14篇文章
在我们的生活中,因为大数据的应用,很多事情变得越来越便利。本专题的文章分享了大数据的应用场景。
专题
48931人已学习16篇文章
看看别人家的PM是怎么做产品测试的。