国产+高潮+在线,国产 av 仑乱内谢,www国产亚洲精品久久,51国产偷自视频区视频,成人午夜精品网站在线观看

?? Webman AI接入DeepSeek教程 [贈送50¥+ 20$額度]

walkor

最近DeepSeek超級火爆,很多開發(fā)者問起Webman Ai如何接入DeepSeek,今天圖文教程來了,非常簡單,只需要三步即可。

其他平臺滿血DeepSeek-R1

因為DeepSeek官方負(fù)載較大,接口返回很慢失敗率很高,這里推薦幾個流暢的DeepSeek-R1滿血平臺。
通過邀請碼注冊的還贈送一些額度。

Novita AI 此連接贈送20美元
派歐算力云 此連接贈送 5¥+15¥額度
硅基流動 此連接贈送14¥

接入步驟

  • 進(jìn)入管理后臺 http://example.com/app/admin

  • AI模型里添加如圖模型

截圖

名稱:DeepSeek
類型:deepseek
模型處理器plugin\ai\app\handler\Gpt(plus版默認(rèn)值) plugin\gpt\app\handler\Gpt(基礎(chǔ)版默認(rèn)值)
支持的模型:

deepseek-chat
deepseek-reasoner

api:https://api.deepseek.com (DeepSeek官方地址,如果是其它平臺地址有所不同)
apikey:sk-xxxx DeepSeek官方apikey獲取地址

  • 配置對外的模型列表
    截圖
    "deepseek-chat": "deepseek-chat",
    "deepseek-reasoner": "deepseek-reasoner"
  • 新增角色
    截圖

注意
deepseek-reasoner 不支持設(shè)置角色提示詞。

  • 前端訪問
    截圖

其它相關(guān)連接

如果你本地有大顯存顯卡,也可以本地部署DeepSeek,參見 DeepSeek本地部署教程

3486 9 8
9個回答

miraclesev

支持大佬

  • sora 2025-02-08

    您好,我這邊調(diào)用本地搭建的DeepSeek模型,流式輸出的時候,返回的數(shù)據(jù)帶0就會返回一個空數(shù)據(jù),比如我提問100以內(nèi)素數(shù)之和,回答中沒有0,求大佬解答

  • walkor 2025-02-08

    截個圖吧,什么樣的提問,哪里輸出了空數(shù)據(jù)

sora


下面是Driver下的文件

<?php

namespace plugin\ai\app\handler\driver;

use Exception;
use support\exception\BusinessException;
use Workerman\Http\Client;
use Workerman\Http\Response;

class DeepSeek extends Base
{
    /**
     * @var string api地址
     */
    protected $api = 'http://127.0.0.1:11434/';

    /**
     * @var float
     */
    protected $version = '2023-06-01';

    /**
     * @param $options
     */
    public function __construct($options)
    {
        parent::__construct($options);
        $this->api = $options['api'] ?? $this->api;
    }

    /**
     * @desc completions
     * @param array $data
     * @param array $options
     */
    public function completions(array $data, array $options)
    {
        $headers = $this->getHeaders($options);

        // $this->api.= '/api/generate';

//        $headers['x-api-key'] = $this->apikey;
//        $headers['anthropic-version'] = $this->version;

$data['stream'] = false;
$data['prompt'] = end($data['messages'])['content'];
        // if (isset($options['stream'])) {
        //     $data['stream'] = true;
        // }
        // if ($data['stream'] ?? false) {
        //     $headers['Accept'] = 'text/event-stream';
        // }

        $options = $this->formatOptions($options);
// var_dump($data);
//         $data = static::formatData($data);
// var_dump($data);
        $requestOptions = [
            'method' => 'POST',
            'data' => json_encode($data),
            'headers' => $headers,
            'progress' => function ($buffer) use ($options) {
                $message = static::formatResponse((string)$buffer);
                if($message['response']){
                    $data = [
                        'content' => $message['response']
                    ];
                }else{
                        $data = [];
                    // if(!$message['done']){
                    //     $data = [
                    //         'error' => [
                    //             'code' => 500,
                    //             'message' => '網(wǎng)絡(luò)鏈接錯誤,請稍后重試!',
                    //             'detail' => json_decode($buffer, true)
                    //         ],
                    //     ];
                    // }else{
                    //     $data = [];
                    // }
                }

                $options['stream']($data);
            },
            'success' => function (Response $response) use ($options) {
                $options['complete'](static::formatResponse((string)$response->getBody()), $response);
            },
            'error' => function ($exception) use ($options) {
                $options['complete']([
                    'error' => [
                        'code' => 'exception',
                        'message' => $exception->getMessage(),
                        'detail' => (string) $exception
                    ],
                ], new Response(0));
            }
        ];
        $http = new Client(['timeout' => 600]);
        $http->request($this->api, $requestOptions);
    }

    /**
     * 格式化消息
     * @param array $data
     * @return array
     */
    protected static function formatData(array $data)
    {
        $model = $data['model'] ?? '';
        $temperature = $data['temperature'] ?? null;
        $maxTokens = $data['max_tokens']??1024;
        $messages = static::formatMessages($data['messages']);
        $data = [
            'model'             => $model,
            'messages'          => $messages,
            'max_tokens'        => $maxTokens,
            'stop_sequences'    => array("\n\nHuman:")
        ];
        if ($temperature !== null) {
            $data['temperature'] = $temperature;
        }
        return $data;
    }

    public static function formatResponse($buffer)
    {
        $json = json_decode($buffer, true);
        if ($json) {
            return $json;
        }
    }
}
  • sora 2025-02-08

    使用非流式返回的時候不會出現(xiàn)這個問題

walkor 打賞

你這里寫的可能有問題,

if($message['response'])

改成

if($message['response'] || $message['response']==='0')
  • sora 2025-02-08

    好的!感謝老大!犯了個低級的錯誤(面壁思過)

  • walkor 2025-02-08

    不客氣,你們本地部署的具體哪個模型?用的服務(wù)器配置是怎樣的?
    我想本地部署試下,不知道需要什么配置。

  • sora 2025-02-08

    本地是用的ollama,兩個4070tisuper16g 可以跑32b和32b以下的,70b就很慢,一個字一個字往外蹦的那種(還是顯存太小了)70b預(yù)計是需要至少32g以上的顯存。
    部署deepseek主要是吃顯存,見過有大佬用魔改的多個2080ti22g部署,這個沒有嘗試過,不知道可不可行
    https://www.bilibili.com/opus/1028826816959217669

  • walkor 2025-02-08

    好的,非常感謝

  • sora 2025-02-08

    openwebui 這個是ollama的可視化界面

  • sora 2025-02-08

    顯存配置基本可以參考一下ollama上面的r1模型對應(yīng)的大小,例如70b是40G左右,就是大概需要40g顯存
    32b是20G左右
    大體可以這樣推算

sora

附一張圖參考

  • 暫無評論
ascuge

大佬,支持思考過程好像需要改一下代碼是不?

  • sora 2025-02-11

    是,思考過程參數(shù)是reasoning_content,GPT的Driver默認(rèn)只拿了content,這塊需要特殊處理一下(或者干脆自己復(fù)制粘貼一份改改)

小吳大大

借樓問下,我用得騰訊云提供的 deepseek 接口,然后如果需要讓webman ai的deepseek模型支持解讀 pdf word 圖片啥的文檔上傳,我需要一一去實(shí)現(xiàn)什么?

  • walkor 2025-02-14

    對,要自己實(shí)現(xiàn)

六次元

可以接入本地部署的DeepSeek么?

TM

加深度思考功能是需要自己開發(fā)嗎

  • walkor 2025-02-21

    深度思考已經(jīng)支持了

  • TM 2025-02-21

    老大果然強(qiáng)

TM

派歐算力云的R1好像用不了,一直不返回數(shù)據(jù)

截圖截圖

  • walkor 2025-02-21

    能用,你填寫錯了,用這個配置

    模型:

    deepseek/deepseek-r1/community
    deepseek/deepseek-v3/community

    API:

    https://api.ppinfra.com/v3/openai/chat/completions
  • TM 2025-02-21

    可以了謝謝,沒注意看

??