国产成人亚洲综合无码99,《大胸护士》在线观看无码,久久精品国产亚洲AV麻豆小说,国产精品G乳久久久9999,久久频这里精品99香蕉
首頁
產(chǎn)品技術
解決方案
開發(fā)者
文檔中心
新聞資訊
加入我們
關于太初
請輸入關鍵字
語言
China - 簡體中文
Global - English
搜索
首頁
產(chǎn)品技術
解決方案
開發(fā)者
文檔中心
新聞資訊
加入我們
關于太初
China - 簡體中文
Global - English
模型庫
申請試用
LLaMA-65B
Inference
LLaMA是大模型研究領域內(nèi)最熱門的基座模型,由Meta開源。時下熱點的Vicuna,Koala等模型都是在llama的基礎上訓練的。現(xiàn)650億參數(shù)量的LLaMA模型已支持在太初卡上推理使用。
LLaMA-7B
Inference
LLaMA是大模型研究領域內(nèi)最熱門的基座模型,由Meta開源。時下熱點的Vicuna,Koala等模型都是在llama的基礎上訓練的?,F(xiàn)70億參數(shù)量的LLaMA模型已支持在太初卡上推理使用。
Baichuan-7B
Inference
Baichuan-7B 是由百川智能開發(fā)的一個開源可商用的大規(guī)模預訓練語言模型?;?Transformer 結(jié)構(gòu),在大約 1.2 萬億 tokens 上訓練的 70 億參數(shù)模型,支持中英雙語,上下文窗口長度為 4096?,F(xiàn)70億參數(shù)量的Baichuan模型已支持在太初卡上推理使用。
Baichuan-13B
Inference
Baichuan-13B 是由百川智能繼 Baichuan-7B 之后開發(fā)的包含 130 億參數(shù)的開源可商用的大規(guī)模語言模型,在權(quán)威的中文和英文 benchmark 上均取得同尺寸最好的效果?,F(xiàn)130億參數(shù)量的Baichuan模型已支持在太初卡上推理使用。
LLM
多模態(tài)
CV
語音
NLP
LLM
相關模型數(shù):
LLaMA-65B
Inference
LLaMA是大模型研究領域內(nèi)最熱門的基座模型,由Meta開源。時下熱點的Vicuna,Koala等模型都是在llama的基礎上訓練的?,F(xiàn)650億參數(shù)量的LLaMA模型已支持在太初卡上推理使用。
LLaMA-7B
Inference
LLaMA是大模型研究領域內(nèi)最熱門的基座模型,由Meta開源。時下熱點的Vicuna,Koala等模型都是在llama的基礎上訓練的。現(xiàn)70億參數(shù)量的LLaMA模型已支持在太初卡上推理使用。
Baichuan-7B
Inference
Baichuan-7B 是由百川智能開發(fā)的一個開源可商用的大規(guī)模預訓練語言模型?;?Transformer 結(jié)構(gòu),在大約 1.2 萬億 tokens 上訓練的 70 億參數(shù)模型,支持中英雙語,上下文窗口長度為 4096?,F(xiàn)70億參數(shù)量的Baichuan模型已支持在太初卡上推理使用。
Baichuan-13B
Inference
Baichuan-13B 是由百川智能繼 Baichuan-7B 之后開發(fā)的包含 130 億參數(shù)的開源可商用的大規(guī)模語言模型,在權(quán)威的中文和英文 benchmark 上均取得同尺寸最好的效果。現(xiàn)130億參數(shù)量的Baichuan模型已支持在太初卡上推理使用。
BLOOM-7B
Inference
BLOOM 是一種自回歸大型語言模型 (LLM),經(jīng)過訓練,可使用工業(yè)規(guī)模的計算資源根據(jù)大量文本數(shù)據(jù)的提示繼續(xù)文本。因此,它能夠以 46 種語言和 13 種編程語言輸出連貫的文本?,F(xiàn)70億參數(shù)量的Bloom模型已支持在太初卡上推理使用。
GPT-2-13B
Inference
GPT-2(Generative Pre-trained Transformer 2 )是OpenAI于2019年2月創(chuàng)建的大語言模型。GPT-2能夠翻譯文本、回答問題、總結(jié)段落,并生成文本輸出?,F(xiàn)130億參數(shù)量的GPT2模型已支持在太初卡上推理使用。
GPT-2-13B
Pretrain
GPT-2(Generative Pre-trained Transformer 2 )是OpenAI于2019年2月創(chuàng)建的大語言模型。GPT-2能夠翻譯文本、回答問題、總結(jié)段落,并生成文本輸出?,F(xiàn)130億參數(shù)量的GPT2模型已支持在太初卡上訓練使用。
GPT-2-13B
Finetune
GPT-2(Generative Pre-trained Transformer 2 )是OpenAI于2019年2月創(chuàng)建的大語言模型。GPT-2能夠翻譯文本、回答問題、總結(jié)段落,并生成文本輸出?,F(xiàn)130億參數(shù)量的GPT2模型已支持在太初卡上微調(diào)使用。
GPT-NeoX-20B
Inference
GPT-NeoX是EleutherAI訓練的自回歸大語言模型,該模型在學術、工業(yè)和政府實驗室有廣泛應用?,F(xiàn)200億參數(shù)量的GPT2-NeoX模型已支持在太初卡上推理使用。
多模態(tài)
相關模型數(shù):
CV
相關模型數(shù):
Resnet50-v1.5
Pretrain | PyTorch
ResNet50 v1.5 (Residual Network),是一種特定類型的卷積神經(jīng)網(wǎng)絡 (CNN),常用于計算機視覺領域?,F(xiàn) ResNet50 v1.5 已支持在太初卡訓練(基于PyTorch框架)使用。
Resnet50-v1.5
Inference
ResNet50 v1.5 (Residual Network),是一種特定類型的卷積神經(jīng)網(wǎng)絡 (CNN),常用于計算機視覺領域。現(xiàn) ResNet50 v1.5 已支持在太初卡推理使用。
Resnet50-v1.5
Pretrain | PaddlePaddle
ResNet50 v1.5 (Residual Network),是一種特定類型的卷積神經(jīng)網(wǎng)絡 (CNN),常用于計算機視覺領域?,F(xiàn) ResNet50 v1.5 已支持在太初卡訓練(基于PaddlePaddle框架)使用。
Yolov5-m
Inference
Yolo V5建立在先前 YOLO 版本成功的基礎上,并引入了新功能和改進,能夠快速、準確且易于使用,Yolo V5已成為各種對象檢測、實例分割和圖像分類任務的絕佳選擇?,F(xiàn)Yolov5m(21.2M 參數(shù))已支持在太初卡推理使用。
Yolov5-l6
Pretrain | PyTorch
Yolo V5建立在先前 YOLO 版本成功的基礎上,并引入了新功能和改進,能夠快速、準確且易于使用,Yolo V5已成為各種對象檢測、實例分割和圖像分類任務的絕佳選擇?,F(xiàn)Yolov5l6(76.8M 參數(shù))已支持在太初卡訓練(基于PyTorch框架)使用。
Yolov5-l6
Inference
Yolo V5建立在先前 YOLO 版本成功的基礎上,并引入了新功能和改進,能夠快速、準確且易于使用,Yolo V5已成為各種對象檢測、實例分割和圖像分類任務的絕佳選擇?,F(xiàn)Yolov5l6(76.8M 參數(shù))已支持在太初卡推理使用。
語音
相關模型數(shù):
Wav2Vec 2.0-base
Pretrain | PyTorch
Wav2vec使用自監(jiān)督的訓練方式從未標記的訓練數(shù)據(jù)中訓練獲得語音識別的能力,能夠支持多種語言識別?,F(xiàn)Wav2Vec-2.0-base已支持在太初卡訓練(基于PyTorch框架)使用。
Wav2Vec 2.0-base
Inference
Wav2vec使用自監(jiān)督的訓練方式從未標記的訓練數(shù)據(jù)中訓練獲得語音識別的能力,能夠支持多種語言識別?,F(xiàn)Wav2Vec-2.0-base已支持在太初卡推理使用。
NLP
相關模型數(shù):
BERT-Base
Pretrain | PyTorch
BERT(Bidirectional Encoder Representation from Transformers)是2018年10月由Google AI研究院提出的一種預訓練模型?,F(xiàn)BERT-Base已支持在太初卡訓練(基于PyTorch框架)使用。
BERT-Base
Inference
BERT(Bidirectional Encoder Representation from Transformers)是2018年10月由Google AI研究院提出的一種預訓練模型。現(xiàn)BERT-Base已支持在太初卡推理使用。
抱歉,沒有找到“xxx”相關的結(jié)果,請嘗試其他搜索詞
申請試用
完成下方表格填寫后,太初技術專家會在審核初步通過后與您聯(lián)系。如果最終完成審核,您可以訪問太初線上環(huán)境體驗太初加速卡的性能。
如有其他媒體合作或咨詢,也可以通過
pr@tecorigin.com
聯(lián)系太初市場商務團隊
提交成功!
請保持手機號碼暢通 我們將盡快與您聯(lián)系
請?zhí)顚懴卤?
我們將盡快與您聯(lián)系
請選擇您的行業(yè)
金融
零售
醫(yī)療
餐飲
航天
農(nóng)業(yè)
制造
電信
建筑/工程
智慧城市
智慧交通
科學計算
公共部門
消費互聯(lián)網(wǎng)
媒體與娛樂
硬件/半導體
其他
請選擇您的職位
首席信息官
首席財務官
首席信息官
首席信息安全官
首席技術官
顧問
產(chǎn)品經(jīng)理
數(shù)據(jù)分析師
數(shù)據(jù)科學家
金融分析師
開發(fā)人員/工程師
IT專家
電影/視頻編輯
游戲玩家
平面設計師/動畫師
工業(yè)設計師/產(chǎn)品設計師
行業(yè)分析師
營銷專家
項目經(jīng)理
風險投資
解決方案架構(gòu)師
教授/講師
學術研究員
學生
其他
請選擇申請試用原因
公司業(yè)務
技術交流
學術研究
個人興趣
其他
獲取驗證碼
用戶協(xié)議
和
隱私條款
立即提交
完成下方表格填寫后,太初技術專家會在審核初步通過后與您聯(lián)系。如果最終完成審核,您可以訪問太初線上環(huán)境體驗太初加速卡的性能。
如有其他媒體合作或咨詢,也可以通過
pr@tecorigin.com
聯(lián)系太初市場商務團隊