AI銷售數(shù)據(jù)分析神器 + 超強推理模型(銷售人,別錯過?。?/h2>
這款A(yù)I銷售數(shù)據(jù)分析工具通過自動化分析和推理模型,快速生成詳細報告,幫助銷售團隊精準定位問題、發(fā)現(xiàn)亮點,優(yōu)化策略。無論是產(chǎn)品分析、地區(qū)對比還是成本結(jié)構(gòu),它都能提供全面洞察和可執(zhí)行建議。

干銷售,最頭疼啥?數(shù)據(jù)一堆,看不懂!客戶一堆,抓不準!業(yè)績壓力大,不知道怎么提升?用這個AI銷售數(shù)據(jù)分析神器,再配上超強的推理模型,銷售數(shù)據(jù)分析變得賊簡單!不用再手動整理表格,管理者能輕松掌握團隊動態(tài),指定銷售策略。銷售人,別錯過! 用AI武裝自己,業(yè)績翻倍不是夢!
效果
銷售數(shù)據(jù)表格內(nèi)容:

當用戶上傳了一個數(shù)據(jù)表之后,首先會調(diào)用 GLM-Z1-AirX 推理模型進行推理,先會得到它的思考過程,我們可以看到下面的思考過程非常全面和細致。
1)數(shù)據(jù)審查與初步分析:異常值識別、亮點發(fā)現(xiàn)、問題產(chǎn)品識別
2)深入分析與報告結(jié)構(gòu):
- 總體分析、計算關(guān)鍵指標、趨勢分析
- 產(chǎn)品分析、盈利產(chǎn)品分析、虧損產(chǎn)品分析、其他產(chǎn)品分析
- 地區(qū)分析、地區(qū)銷售對比、地區(qū)產(chǎn)品分析


最后輸出的銷售分析報告非常詳細:數(shù)據(jù)概覽、核心數(shù)據(jù)分析(產(chǎn)品變現(xiàn)、地區(qū)分析、成本結(jié)構(gòu))、關(guān)鍵發(fā)現(xiàn)、改進建議、執(zhí)行計劃、風險提示,可以說考慮的非常周全且可以直接落地。




教程
整體框架上,主要是使用了插件和工作流的組合模式,完成整個流程。

當用戶上傳表格的時候,調(diào)用插件「文件讀取」把文件讀取后的內(nèi)容傳遞隔離了工作流「SellDataAnalysis」。

整個流程相對簡單一共4個節(jié)點
- 開始節(jié)點x1(接受輸入?yún)?shù))
- 文本處理x1(提示詞整理)
- 自定義插件x1(GLM-Z1-AirX插件)
- 結(jié)束節(jié)點(輸出推理內(nèi)容)
當表格數(shù)據(jù)進入之后先調(diào)用「GLM-Z1-AirX」推理模型插件進行數(shù)據(jù)分析總結(jié),在整個過程通過「消息節(jié)點」進行實時輸出

文本處理:(整理提示詞)
你是一個銷售總監(jiān),幫我根據(jù)以下數(shù)據(jù)寫一個銷售數(shù)據(jù)報告,先分析銷售數(shù)據(jù)給出概括以及總結(jié)和建議。
數(shù)據(jù):{{String1}}
然后將提示詞給到 GLM-Z1-AirX 插件,如何編寫GLM-Z1-AirX 插件?首先回到扣子空間主頁,選擇「資源庫」然后點擊右上角「+資源」選擇「插件」。

輸入插件名稱、描述、選擇「在 Coze IDE 中創(chuàng)建」。

然后創(chuàng)建工具,輸入名稱 GLM_Z1_AirX ,介紹:推理模型

創(chuàng)建完成后,我們看下如何調(diào)用GLM大模型,前往智譜BigModel開放平臺的GLM接口文檔用HTTP請求的方式
文檔地址:https://bigmodel.cn/dev/api/http-call/http-auth
只需要參數(shù)三個參數(shù)即可,第一個是apikey,第二個是模型編碼,第三個是提示詞

然后我們再回到插件編輯器中,實現(xiàn)HTTP請求代碼,需要傳入兩個動態(tài)參數(shù)apikey和提示詞,model使用的是GLM-Z1-AirX。
import { Args } from ‘@/runtime’;
import { Input, Output } from “@/typings/GLM_4_PLUS/GLM_4_PLUS”;
/**
* Each file needs to export a function named `handler`. This function is the entrance to the Tool.
* @param {Object} args.input – input parameters, you can get test input value by input.xxx.
* @param {Object} args.logger – logger instance used to print logs, injected by runtime
* @returns {*} The return data of the function, which should match the declared output parameters.
*
* Remember to fill in input/output in Metadata, it helps LLM to recognize and use tool.
*/
export async function handler({ input, logger }: Args<Input>): Promise<Output> { const API_URL = ‘https://open.bigmodel.cn/api/paas/v4/chat/completions’;
const API_KEY = input.key;
const COMMAND = input.command;
const headers = { ‘Authorization’: `Bearer ${API_KEY}`,
‘Content-Type’: ‘application/json’, };
const data = { ‘model’: ‘GLM-Z1-AirX’,
‘messages’: [ { ‘role’: ‘user’, ‘content’: COMMAND, }, ], };
const response = await fetch(API_URL, { headers, method: ‘POST’, body: JSON.stringify(data), });
const result = await response.json(); return { data: result.choices[0].message.content, };}
代碼實現(xiàn)完成后需要切換到「元數(shù)據(jù)」
- 左邊區(qū)域設(shè)置輸入和輸出的參數(shù)
- 右邊區(qū)域輸入?yún)?shù)進行運行調(diào)試

apikey如何獲取?登陸后臺找到密鑰管理頁面,沒有的話可以點擊右上角添加新的API Key
后臺地址:https://zhipuaishengchan.datasink.sensorsdata.cn/t/F2
新增完成直接可以直接復(fù)制即可。

確認沒有問題之后就可以點擊右上角「發(fā)布」。

發(fā)布成功后我們回到工作流點擊左上角添加「插件」然后選擇「我的工具」就可以使用自定義插件了。

輸入上個節(jié)點組裝好的提示詞以及key即可調(diào)用。

在這里肯定會有人疑惑,為什么不用DeepSeek-R1 推理模型?它不是最好用的推理模型嗎?我們可以對比下同樣的提示詞效果如何?
速度數(shù)據(jù)對比:
同樣的提示詞 DeepSeek-R1 用了58秒,GLM-Z1-AirX僅用了12秒。

效果數(shù)據(jù)對比:直接看結(jié)果
DeepSeek-R1:



GLM-Z1-AirX:



然后讓DeepSeek-V3作為裁判來進行判斷:我分別把DeepSeek – R1的輸出內(nèi)容為【A報告】,GLM-Z1-AirX輸出的內(nèi)容為【B報告】給到了DeepSeek-V3進行判斷。


最后得出的結(jié)論B報告(GLM-Z1-AirX)勝出。

通過以上速度和效果的對比,所以我們最終選擇了GLM-Z1-AirX模型,然后將結(jié)果輸出在結(jié)束節(jié)點,整個分析銷售數(shù)據(jù)的工作流就完了!

智譜開源的Z1系列推理模型,上線BigModel開放平臺(bigmodel.cn)的有三個版本,分別滿足不同場景需求:
- GLM-Z1-AirX(極速版):定位國內(nèi)最快推理模型,推理速度可達 200 tokens/秒,比常規(guī)快 8 倍;
- GLM-Z1-Air(高性價比版):價格僅為 DeepSeek-R1 的 1/30,適合高頻調(diào)用場景;
- GLM-Z1-Flash(免費版):支持免費使用,旨在進一步降低模型使用門檻。
對應(yīng)價格表:

總結(jié)
別只盯著那些內(nèi)置的大模型,有時候需要自己動手自定義插件去尋找解決方案。這樣做的好處是,我們的解決方案不會受限,而且還能更靈活。另外,還得提一句,不同的業(yè)務(wù)要多試試不同的大模型很關(guān)鍵。
每個模型都有它擅長的地方,只有我們深入了解了它們各自的能力,才能更好地駕馭這些大模型,讓它們變成我們手中的利器。這樣一來,面對難題時,我們就能游刃有余地找到最佳解決方案。
本文由人人都是產(chǎn)品經(jīng)理作者【陳宇明】,微信公眾號:【碼個蛋】,原創(chuàng)/授權(quán) 發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載。
題圖來自Unsplash,基于 CC0 協(xié)議。
更多精彩內(nèi)容,請關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號或下載App
這款A(yù)I銷售數(shù)據(jù)分析工具通過自動化分析和推理模型,快速生成詳細報告,幫助銷售團隊精準定位問題、發(fā)現(xiàn)亮點,優(yōu)化策略。無論是產(chǎn)品分析、地區(qū)對比還是成本結(jié)構(gòu),它都能提供全面洞察和可執(zhí)行建議。
干銷售,最頭疼啥?數(shù)據(jù)一堆,看不懂!客戶一堆,抓不準!業(yè)績壓力大,不知道怎么提升?用這個AI銷售數(shù)據(jù)分析神器,再配上超強的推理模型,銷售數(shù)據(jù)分析變得賊簡單!不用再手動整理表格,管理者能輕松掌握團隊動態(tài),指定銷售策略。銷售人,別錯過! 用AI武裝自己,業(yè)績翻倍不是夢!
效果
銷售數(shù)據(jù)表格內(nèi)容:
當用戶上傳了一個數(shù)據(jù)表之后,首先會調(diào)用 GLM-Z1-AirX 推理模型進行推理,先會得到它的思考過程,我們可以看到下面的思考過程非常全面和細致。
1)數(shù)據(jù)審查與初步分析:異常值識別、亮點發(fā)現(xiàn)、問題產(chǎn)品識別
2)深入分析與報告結(jié)構(gòu):
- 總體分析、計算關(guān)鍵指標、趨勢分析
- 產(chǎn)品分析、盈利產(chǎn)品分析、虧損產(chǎn)品分析、其他產(chǎn)品分析
- 地區(qū)分析、地區(qū)銷售對比、地區(qū)產(chǎn)品分析
最后輸出的銷售分析報告非常詳細:數(shù)據(jù)概覽、核心數(shù)據(jù)分析(產(chǎn)品變現(xiàn)、地區(qū)分析、成本結(jié)構(gòu))、關(guān)鍵發(fā)現(xiàn)、改進建議、執(zhí)行計劃、風險提示,可以說考慮的非常周全且可以直接落地。
教程
整體框架上,主要是使用了插件和工作流的組合模式,完成整個流程。
當用戶上傳表格的時候,調(diào)用插件「文件讀取」把文件讀取后的內(nèi)容傳遞隔離了工作流「SellDataAnalysis」。
整個流程相對簡單一共4個節(jié)點
- 開始節(jié)點x1(接受輸入?yún)?shù))
- 文本處理x1(提示詞整理)
- 自定義插件x1(GLM-Z1-AirX插件)
- 結(jié)束節(jié)點(輸出推理內(nèi)容)
當表格數(shù)據(jù)進入之后先調(diào)用「GLM-Z1-AirX」推理模型插件進行數(shù)據(jù)分析總結(jié),在整個過程通過「消息節(jié)點」進行實時輸出
文本處理:(整理提示詞)
你是一個銷售總監(jiān),幫我根據(jù)以下數(shù)據(jù)寫一個銷售數(shù)據(jù)報告,先分析銷售數(shù)據(jù)給出概括以及總結(jié)和建議。
數(shù)據(jù):{{String1}}
然后將提示詞給到 GLM-Z1-AirX 插件,如何編寫GLM-Z1-AirX 插件?首先回到扣子空間主頁,選擇「資源庫」然后點擊右上角「+資源」選擇「插件」。
輸入插件名稱、描述、選擇「在 Coze IDE 中創(chuàng)建」。
然后創(chuàng)建工具,輸入名稱 GLM_Z1_AirX ,介紹:推理模型
創(chuàng)建完成后,我們看下如何調(diào)用GLM大模型,前往智譜BigModel開放平臺的GLM接口文檔用HTTP請求的方式
文檔地址:https://bigmodel.cn/dev/api/http-call/http-auth
只需要參數(shù)三個參數(shù)即可,第一個是apikey,第二個是模型編碼,第三個是提示詞
然后我們再回到插件編輯器中,實現(xiàn)HTTP請求代碼,需要傳入兩個動態(tài)參數(shù)apikey和提示詞,model使用的是GLM-Z1-AirX。
import { Args } from ‘@/runtime’;
import { Input, Output } from “@/typings/GLM_4_PLUS/GLM_4_PLUS”;
/**
* Each file needs to export a function named `handler`. This function is the entrance to the Tool.
* @param {Object} args.input – input parameters, you can get test input value by input.xxx.
* @param {Object} args.logger – logger instance used to print logs, injected by runtime
* @returns {*} The return data of the function, which should match the declared output parameters.
*
* Remember to fill in input/output in Metadata, it helps LLM to recognize and use tool.*/
export async function handler({ input, logger }: Args<Input>): Promise<Output> { const API_URL = ‘https://open.bigmodel.cn/api/paas/v4/chat/completions’;
const API_KEY = input.key;
const COMMAND = input.command;
const headers = { ‘Authorization’: `Bearer ${API_KEY}`,
‘Content-Type’: ‘application/json’, };
const data = { ‘model’: ‘GLM-Z1-AirX’,
‘messages’: [ { ‘role’: ‘user’, ‘content’: COMMAND, }, ], };
const response = await fetch(API_URL, { headers, method: ‘POST’, body: JSON.stringify(data), });
const result = await response.json(); return { data: result.choices[0].message.content, };}
代碼實現(xiàn)完成后需要切換到「元數(shù)據(jù)」
- 左邊區(qū)域設(shè)置輸入和輸出的參數(shù)
- 右邊區(qū)域輸入?yún)?shù)進行運行調(diào)試
apikey如何獲取?登陸后臺找到密鑰管理頁面,沒有的話可以點擊右上角添加新的API Key
后臺地址:https://zhipuaishengchan.datasink.sensorsdata.cn/t/F2
新增完成直接可以直接復(fù)制即可。
確認沒有問題之后就可以點擊右上角「發(fā)布」。
發(fā)布成功后我們回到工作流點擊左上角添加「插件」然后選擇「我的工具」就可以使用自定義插件了。
輸入上個節(jié)點組裝好的提示詞以及key即可調(diào)用。
在這里肯定會有人疑惑,為什么不用DeepSeek-R1 推理模型?它不是最好用的推理模型嗎?我們可以對比下同樣的提示詞效果如何?
速度數(shù)據(jù)對比:
同樣的提示詞 DeepSeek-R1 用了58秒,GLM-Z1-AirX僅用了12秒。
效果數(shù)據(jù)對比:直接看結(jié)果
DeepSeek-R1:
GLM-Z1-AirX:
然后讓DeepSeek-V3作為裁判來進行判斷:我分別把DeepSeek – R1的輸出內(nèi)容為【A報告】,GLM-Z1-AirX輸出的內(nèi)容為【B報告】給到了DeepSeek-V3進行判斷。
最后得出的結(jié)論B報告(GLM-Z1-AirX)勝出。
通過以上速度和效果的對比,所以我們最終選擇了GLM-Z1-AirX模型,然后將結(jié)果輸出在結(jié)束節(jié)點,整個分析銷售數(shù)據(jù)的工作流就完了!
智譜開源的Z1系列推理模型,上線BigModel開放平臺(bigmodel.cn)的有三個版本,分別滿足不同場景需求:
- GLM-Z1-AirX(極速版):定位國內(nèi)最快推理模型,推理速度可達 200 tokens/秒,比常規(guī)快 8 倍;
- GLM-Z1-Air(高性價比版):價格僅為 DeepSeek-R1 的 1/30,適合高頻調(diào)用場景;
- GLM-Z1-Flash(免費版):支持免費使用,旨在進一步降低模型使用門檻。
對應(yīng)價格表:
總結(jié)
別只盯著那些內(nèi)置的大模型,有時候需要自己動手自定義插件去尋找解決方案。這樣做的好處是,我們的解決方案不會受限,而且還能更靈活。另外,還得提一句,不同的業(yè)務(wù)要多試試不同的大模型很關(guān)鍵。
每個模型都有它擅長的地方,只有我們深入了解了它們各自的能力,才能更好地駕馭這些大模型,讓它們變成我們手中的利器。這樣一來,面對難題時,我們就能游刃有余地找到最佳解決方案。
本文由人人都是產(chǎn)品經(jīng)理作者【陳宇明】,微信公眾號:【碼個蛋】,原創(chuàng)/授權(quán) 發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載。
題圖來自Unsplash,基于 CC0 協(xié)議。
- 目前還沒評論,等你發(fā)揮!