最新技巧:一键申请任意大模型API,支持国内信用卡,彻底解决大模型API难题!

AI学长小林
7 Apr 202414:58

Summary

TLDR本期视频介绍了一个名为openrouter的AI聚合器,它能够解决国内用户使用国外主流AI模型API时遇到的账户安全、网络连接和API管理等问题。通过openrouter平台,用户可以使用一个API和一个key调用多种大模型,简化了开发流程和成本。同时,平台支持Visa卡和加密货币支付,降低了支付门槛。此外,openrouter还提供了一些免费的大模型API,方便用户进行简单的服务开发。视频还演示了如何在官网申请API key,并将其应用于不同的套壳应用和插件中。

Takeaways

  • 🌐 介绍了一个名为openrouter的AI聚合器,旨在解决国内用户使用国外主流AI模型API的困难。
  • 🔒 通过openrouter使用API避免了账户安全问题,因为它不需要使用虚拟卡绑定。
  • 🌐 openrouter平台提供了直连服务,无需在API接口中设置代理或中转。
  • 🚀 openrouter极大提高了便捷性,一个API即可对接所有国外主流大模型的API。
  • 💡 openrouter的API接口结构与OpenAI相同,保证了良好的兼容性。
  • 🔑 一个openrouter账号可以创建多个key,并为每个key设置使用额度,方便团队管理。
  • 💳 支持使用国内Visa卡和加密货币进行支付,降低了支付门槛。
  • 💰 openrouter平台的预付费性质降低了整体资金的沉淀成本。
  • 🏷️ openrouter平台充值时会收取手续费,但相比其他中转平台仍有优势。
  • 🆓 平台提供了一些免费的大模型API,如Mistral 7B,可供用户使用。
  • 🛠️ 演示了如何在应用中申请API key,并将其绑定到应用中,以及如何在不同大模型间切换。

Q & A

  • 视频介绍了一个名为openrouter的工具,它主要解决了什么问题?

    -openrouter主要解决了国内用户在使用国外主流大模型API时遇到的困难,如账户安全问题、网络问题、Token速率限制问题以及不同大模型API管理和切换等问题。

  • 使用openrouter平台有什么优势?

    -使用openrouter平台的优势包括账户安全、网络直连、便捷性、通用性和兼容性,以及可以多人使用的账号管理。此外,它还支持Visa卡和加密货币支付,降低了支付门槛,并且预付成本和使用成本相对较低。

  • openrouter平台支持哪些模型?

    -openrouter平台支持包括GPT 3.5、4.0, Turbo、Vision以及16K的所有Open AI模型,还包括Claude、Llama2和Google Gemma等开源模型。

  • 如何通过openrouter平台申请API key并将其应用于应用中?

    -首先在openrouter官网进行注册和充值,然后在设置中创建API key并设置使用额度。之后,将该key填入到相应的应用中,如套壳应用或浏览器插件,并根据需要选择或配置模型。

  • openrouter平台如何确保账户安全?

    -通过openrouter平台申请和使用API,不依赖于国外手机号和信用卡,避免了因官方政策收紧导致的账户封号问题,从而确保了账户的安全。

  • openrouter平台的网络连接有什么特点?

    -openrouter平台可以实现直连,不需要在API接口中设置代理或中转,这样可以减少网络延迟和潜在的连接问题。

  • openrouter平台的兼容性如何?

    -openrouter平台的API接口结构与OpenAI相同,因此兼容性非常好,支持市面上大部分主流的套壳应用一键接入。

  • openrouter平台的支付方式有哪些?

    -openrouter平台支持Visa卡支付,并且可以使用国内的Visa卡直接绑定和支付。此外,平台还支持加密货币支付。

  • openrouter平台的预付成本和使用成本如何?

    -在openrouter平台,用户只需进行一次预付费即可调用各种大模型的API,预付成本较低。使用成本与官方相同,充值时会收取一定比例的手续费。

  • openrouter平台是否提供免费的大模型API?

    -是的,openrouter平台提供了一些开源的免费大模型API,如Mistral 7B,用户可以用这些API提供免费的服务,如翻译等。

  • 如何测试不同大模型在openrouter平台的效果?

    -用户可以在openrouter平台提供的playground中选择多个模型进行对话和测试,这样可以方便地比较不同模型的对话效果和性能。

Outlines

00:00

🤖 介绍AI聚合器openrouter

本段落介绍了一个名为openrouter的AI聚合器,它解决了在国内使用国外主流大模型API时遇到的困难,如账户安全、网络问题、Token速率限制等。通过openrouter平台,用户可以方便地使用和管理各种国外大模型API,无需国外手机号和信用卡。平台支持包括GPT 3.5、4.0, Turbo、Vision以及16K在内的所有Open AI模型,以及Claude、Llama2和Google Gemma等开源模型。

05:01

💳 openrouter平台的优势与支付方式

这一段详细介绍了openrouter平台的优势,包括账户安全、网络直连、便捷性和通用性兼容性。平台的API接口结构与OpenAI一致,支持一键接入多种主流套壳应用。此外,平台允许一个账号多人使用,并可为每个key设置使用额度。支付方面,支持Visa卡和加密货币支付,降低了使用门槛。同时,平台提供了一些免费的大模型API,如Mistral 7B,供用户使用。

10:03

🔧 演示如何申请和使用openrouter API

这部分内容通过实际操作演示了如何在openrouter官网申请API key,并将其绑定到不同的应用中。首先,在官网的playground中选择并测试不同模型的对话效果。然后,演示了如何使用国内的Visa卡进行充值和申请API key。最后,展示了如何在lobechat、Chat Next Web和沉浸式翻译插件中调用和切换不同的大模型API,以及如何查看API的使用详情。

Mindmap

Keywords

💡AI聚合器

AI聚合器是一种工具或平台,它能够将多个AI模型或服务集成在一起,方便用户通过统一的接口进行调用和管理。在视频中,AI聚合器解决了使用国外主流大模型API时遇到的困难,如账户安全、网络问题等。

💡API

API是应用程序编程接口的简称,它允许不同的软件系统之间进行交互和数据共享。在视频中,API特指AI模型提供的接口,通过这些接口,开发者可以调用AI模型的功能。

💡账户安全

账户安全指的是保护用户账户不受到非法访问、盗用或其他安全威胁的措施。在视频中,提到通过openrouter平台使用API可以避免直接使用国外API可能遇到的账户安全问题。

💡网络问题

网络问题通常指在使用网络服务时遇到的连接、速度或稳定性方面的问题。在视频内容中,网络问题主要是指在使用国外API时可能需要通过代理或中转,而通过openrouter平台可以直连,避免了这些问题。

💡Token速率限制

Token速率限制是指对API调用的频率或数量进行限制,以防止滥用和确保服务的稳定性。在视频中,提到使用国外大模型API时可能会遇到Token速率限制的问题。

💡API管理

API管理涉及对API的创建、发布、维护和监控等一系列活动。在视频内容中,API管理主要是指个人或小团队在使用多个国外大模型API时面临的挑战。

💡支付问题

支付问题通常指在进行交易或购买服务时遇到的支付方式、支付安全或支付门槛等问题。在视频中,提到通过openrouter平台使用API时,支付问题得到了简化。

💡预付成本

预付成本是指在使用服务之前需要预先支付的费用。在视频内容中,预付成本是指在使用大模型API之前需要先充值的费用。

💡使用成本

使用成本是指在使用服务过程中产生的费用。在视频内容中,使用成本特指调用大模型API时产生的费用。

💡免费API

免费API是指可以无需支付费用即可使用的API服务。在视频中,提到openrouter平台提供了一些免费的大模型API,用户可以利用这些API提供服务而不需要支付费用。

💡多人使用

多人使用指的是一个账号或服务可以被多个用户共享和使用。在视频内容中,openrouter平台允许一个账号创建多个key,并且可以为每个key设置使用额度,从而支持多人使用。

Highlights

欢迎来到AI学长的频道, 我是小林

分享一个非常实用的AI聚合器—openrouter

解决了使用所有国外主流大模型API困难的问题

openrouter完美解决账户安全、网络问题、Token速率限制等问题

通过一个key使用切换任意的大模型

支持GPT 3.5、4.0、Turbo、Vision以及16K等OpenAI模型

还包括Claude、Llama2、Google Gemma等开源模型

openrouter平台的便捷性是最大的优势

API接口结构的通用性以及兼容性

支持一键接入多种套壳应用

支持多人使用,每个key可以设置使用额度

支持直接用Visa卡和加密货币支付

通过openrouter平台可以降低预付成本和使用成本

提供一些免费的大模型API,如Mistral 7B

演示如何申请openrouter平台的API和在应用中对接

在lobe chat、Chat Next Web和谷歌浏览器插件中使用openrouter API

openrouter解决了国内使用大模型API困难的问题

Transcripts

00:00

你好

00:01

欢迎来到AI学长的频道

00:02

我是小林

00:03

这期视频

00:04

给大家分享一个非常实用的AI聚合器

00:07

它完美的解决了

00:08

使用所有国外主流

00:10

大模型API困难的问题

00:12

比如当你要用ChatGPT

00:13

或者Claude API的时候

00:15

就必须要有国外的手机号

00:17

以及国外的信用卡

00:18

这个问题

00:19

虽然可以通过一些方法解决

00:21

在我之前的频道里面

00:22

也分享过相关视频

00:24

但是假如你是大模型API的重度用户

00:27

就会面临一些新的问题

00:29

比如说账户安全问题

00:31

网络问题

00:32

Token速率限制的问题

00:33

还有不同大模型API管理

00:35

以及切换等等问题

00:37

总之

00:38

只要是个人或者小的开发团队

00:40

要在国内使用国外这些大模型的API

00:43

会面临各种各样的困难

00:45

那么今天这期视频

00:46

可以让你彻底摆脱这些困扰

00:48

在国内也可以非常顺畅

00:50

且非常便捷的

00:51

使用各种国外大模型的API

00:54

如果你喜欢今天这个话题

00:55

麻烦动动你的小手赞一赞

00:58

这个工具的名字呢叫openrouter

01:01

它是一个大模型的API聚合平台

01:05

已经把国外目前主流的

01:07

不管是开源的还是闭源的这些模型

01:09

都接入进去了

01:11

那么后续的话

01:11

我们只要通过openrouter

01:12

它给我们提供的API接口

01:14

以及它所提供的key

01:16

我们就可以直接调用

01:18

各种主流的国外大模型

01:20

通过一个key

01:21

就可以使用切换任意的大模型

01:24

所以用起来就非常非常的方便

01:26

比如说

01:26

我们在它支持的模型里面

01:28

可以看到

01:29

它是支持像GPT的3.5、4.0

01:33

Turbo、Vision以及16K的

01:35

所有的Open AI模型在这边都是支持的

01:38

包括像Claude

01:39

也是一样的

01:40

另外包括像一些开源模型

01:43

Llama2

01:43

还有Google Gemma也是支持的

01:46

为了方便大家对比

01:47

通过openrouter平台

01:49

去调用各种国外大模型的API

01:51

有哪些优势

01:52

这里我做了这样一个表格

01:54

方便大家更直观的去了解

01:57

首先是账户安全问题

01:59

假如说我们在国内

02:01

去调用OpenAI的API

02:03

或者Claude的API

02:05

可能会面临一些账户安全问题

02:07

因为我们没有直接的网络

02:09

以及没有直接的支付卡

02:11

都是通过一些虚拟卡的方式

02:13

去绑定使用

02:14

所以相对来说

02:15

如果官方的政策一收紧

02:17

像这类账号

02:18

可能就会面临账户的封号问题

02:21

但是如果是说

02:22

你通过openrouter平台去申请API

02:24

去使用API

02:25

是不会有这一类问题的

02:27

然后第二个的话是网络问题

02:29

通过openrouter这个平台

02:31

我们是可以直连的

02:32

不需要在API接口里面

02:34

去做代理

02:35

或者中转

02:36

第三个的话是便捷性

02:39

这个也是我觉得openrouter平台

02:41

最大的一个优势

02:42

它只要一个API

02:44

就可以对接所有

02:45

国外的主流大模型的API

02:48

不需要我们人为的

02:50

去挨个去申请

02:51

然后挨个去开发

02:53

不管是管理成本

02:54

还是切换成本

02:55

还是说开发成本

02:57

我觉得都是大大降低的

02:59

第四个

03:00

是通用性以及兼容性

03:02

它的API接口结构

03:04

是和OpenAI一样的

03:07

所以它的兼容性就非常的好

03:09

目前市面上大部分主流的套壳应用

03:12

它都是支持一键接入的

03:14

比如说像我们自己部署的

03:16

还有一些第三方的Web UI

03:17

桌面端应用Chatbox

03:19

以及一些浏览器插件

03:21

像Webpoilt

03:22

沉浸式翻译

03:23

还有一些主流的套壳APP

03:25

它都是支持使用openrouter的API

03:28

支持一键接入的

03:30

另外就是说

03:31

它这个平台

03:32

还有一个优势

03:33

就是说你申请一个账号

03:35

它是可以满足多人使用的

03:37

我们可以在一个账号里面

03:39

创建多个key

03:40

而且还可以给每一个key

03:42

设置使用额度

03:45

接下来的话是关于支付的问题

03:48

像这一块的话

03:49

我们是可以直接用Visa卡支付的

03:51

你用国内的Visa卡

03:53

可以直接绑定到openrouter平台

03:55

那么后续使用

03:56

你都可以通过国内的Visa卡

03:58

直接进行扣款支付

04:00

相对来说支付的门槛

04:02

也是会比使用

04:03

ChatGPT、Claude的API

04:05

直接去使用

04:06

这个门槛是更低的

04:07

另外它还支持加密货币支付

04:11

不需要我们去申请虚拟信用卡

04:12

节约充值的成本

04:14

接下来的话就是预付成本

04:16

以及使用成本

04:17

像现在大模型的这些API平台

04:20

它都已经改成了预付费的性质

04:22

也就是说

04:23

你要用它的API

04:24

你必须要先充值

04:26

充值完成之后

04:27

才可以使用

04:28

如果是说

04:29

你要用不同大模型平台的API

04:31

你就要在每个平台里面

04:33

都进行预付费

04:35

这样的话

04:36

整体资金的沉淀成本就会比较高

04:38

而通过openrouter平台

04:40

你只要在它这个平台里面

04:42

进行一个预付费

04:43

你就可以直接去调用各种大模型的API

04:46

相对来说

04:47

预付成本就会更低

04:49

接下来是关于使用成本

04:52

像这个平台

04:53

它里面所有的模型输入

04:55

以及输出的成本

04:56

全部是和官方一样的

04:59

其实在这里我们也可以看到

05:00

比如说Claude3 haiku

05:02

它每100万Token的输入成本

05:05

以及输出成本

05:06

都是跟官方一样的

05:07

唯一的额外费用

05:09

就是说他在充值的时候

05:11

会收取手续费

05:12

如果是说信用卡

05:14

会收取5%的手续费

05:16

加上每笔金额0.35美金的手续费

05:20

如果说你是用虚拟货币充值的

05:22

那么直接是收取5%的手续费

05:25

相对来说

05:26

对比其他的一些中转平台

05:28

openrouter平台还是有优势的

05:30

然后还有一个其他优势

05:32

就是它在这个平台里面

05:34

其实还给我们提供了一些

05:36

像开源的

05:37

免费的大模型的API

05:40

我们可以看到

05:41

像这些带free的

05:42

比如说这个Mistral 7B

05:44

就是免费提供的

05:46

这样的话

05:46

其实后期

05:47

我们也可以用这个免费的

05:49

这些API接口

05:50

去提供一些简单的服务

05:51

比如说用来做翻译

05:53

都不会去收费

05:54

这个的话就是关于它的一个优势

05:57

接下来

05:58

我们来介绍一下使用

05:59

怎么去申请这个平台的API

06:01

以及怎么样把它

06:02

对接到我们应用当中去

06:03

首先

06:04

我们来到它的官网

06:06

这个是它的首页

06:07

可以看到菜单

06:08

菜单的话

06:09

这边是提供了一个playground

06:12

在这里面

06:12

我们是可以自由的选择

06:14

你想要对话的模型

06:16

并且它是可以多选的

06:18

那么你选择完成之后

06:20

并且把它开启

06:20

我们可以在这边的对话框里面

06:22

同时跟这些大模型进行对话

06:24

比如说现在这里的模型

06:26

我选择了3.5

06:27

Mistral还有这个Claude3 Opus

06:30

那么我在这边发送一下

06:32

这样一个prompt

06:34

可以看到我右边选择的这些大模型

06:36

他在这个对话窗口当中

06:38

同时回答了我的问题

06:39

那么在playground当中

06:41

我们也可以去做

06:42

不同大模型的对话效果测试

06:44

使用起来还是非常方便的

06:46

接下来

06:46

我们来演示一下充值

06:48

以及申请API key

06:49

然后把它绑定到我们这里应用当中

06:52

以及去进行API的切换

06:54

去使用不同大模型

06:56

我们直接来到setting

06:58

然后来点击积分按钮

07:00

这里它是支持银行卡支付

07:03

Cash APP以及美国的银行卡

07:06

还有谷歌Pay

07:07

这里的话

07:07

我就用自己国内的招行Visa卡

07:10

给它进行绑定一下

07:12

我们把自己的卡片信息

07:13

给它填入进去

07:15

我们点击提交

07:16

可以看到这个卡

07:17

它已经绑定上了

07:19

我们现在可以

07:20

进行充值

07:21

比如说我充值10美金进去

07:24

他这边的话是有一个计费的

07:26

总共是要收取5%的手续费

07:30

加固定的0.35美金

07:32

一笔的单笔费用

07:34

这边的话就是你充值的越多

07:36

肯定是越划得来的

07:38

然后我点击一下充值

07:40

可以看到余额已经充值成功了

07:43

所以我们直接用openrouter平台

07:45

去申请大模型的API

07:47

就不用像直接

07:48

去对接官方这么麻烦

07:50

你必须要用国外的信用卡

07:52

那么充值完成以后

07:54

我们这边就是

07:55

可以去申请一下自己的key

07:57

点击创建key

07:59

你可以给这个key

08:00

设置一个名字

08:01

比如说我这边就命名test key

08:04

然后大家可以注意一下这个按钮

08:05

它其实是可以给每一个key

08:07

去设置使用额度的上限

08:09

比如说我是让它上限

08:11

可以用5美金的额度

08:14

它已经把这个key

08:15

给我发过来了

08:17

我们复制一下

08:18

待会的话就可以

08:19

在应用端直接去使用

08:21

包括后面你自己创建的每一个key

08:23

都可以在这边看到它的使用额度

08:25

以及它使用的一个详情

08:27

如果是团队使用

08:28

通过这个平台

08:29

其实管理也是非常方便的

08:31

接下来

08:32

我们就来演示一下

08:33

怎么样在应用当中去调用这个key

08:35

以及怎么样去切换不同的

08:37

这些国外主流大模型

08:39

这里的话我就用lobechat

08:41

还有这个比较经典的套壳应用

08:44

Chat Next Web

08:45

还有的话

08:45

我们经常在用的翻译插件

08:48

沉浸式翻译

08:49

我会把它的key

08:50

填入到这三个工具当中

08:52

然后演示

08:53

怎么样去切换它的模型

08:55

以及它的一个实际效果

08:57

OK

08:57

首先是lobechat

09:00

关于lobechat

09:01

它是提供了线上版本

09:02

以及本地部署版本

09:04

大家可以看到这个网址

09:05

首先这个是线上版

09:07

本官方所提供的

09:08

我们在这里面

09:09

是可以直接使用

09:10

openrouter它对应的一些模型的

09:12

在这里面的话

09:13

是可以自定义自己的模型

09:15

那么你也可以

09:15

在自己本地去部署

09:17

套壳应用lobe chat

09:19

相对来说

09:20

这个套壳应用

09:21

它的功能也非常的强大

09:23

具体的部署方式

09:24

在我原来的视频当中是有讲过的

09:27

这期视频

09:28

震惊!免费替代ChatGPT plus

09:30

这个项目做到了

09:31

它是支持GPTS GPT-4v

09:33

以及Plugins插件

09:35

在本地的套壳应用当中

09:36

是支持这些东西的

09:38

另外它也支持我们今天

09:39

所说的openrouter的API

09:42

如果是说你是首次部署好以后

09:44

我们可以点击这个设置

09:47

然后来到它的语言模型这里

09:50

它目前是支持

09:51

这些平台的API接口

09:53

现在我们直接来到openrouter

09:55

把它打开

09:56

把刚才我们在平台

09:58

所获得的key

10:00

给它填到这里来

10:02

这里的话

10:03

你需要它支持哪些模型

10:05

你就把这个模型的名字给它填入进去

10:08

如果是多个模型

10:10

就用英文的逗号

10:11

给它分割一下就好了

10:13

我给大家演示一下

10:14

比如说

10:15

这里我是希望

10:17

它支持Gemini的

10:19

我们就搜一下Gemini

10:20

然后我随机点一个进去

10:22

Gemini Pro 1.0

10:24

可以看到

10:25

它这边其实是有模型地址的

10:27

我们点击一下复制

10:30

然后来到这里

10:31

英文的逗号

10:32

然后把这个模型给它粘贴进去

10:35

点击一下检查

10:36

检查通过

10:37

那就代表我们可以

10:38

正常的去使用这些模型

10:39

你的API key也是正确的

10:41

设置完成之后

10:42

我们就来到对话窗口

10:44

点击这个脑图这里

10:46

模型这里它是可以自由的去选择

10:49

你配置好的这些模型

10:51

然后这里可以看到

10:52

它还有一些free的模型

10:54

Mistral 7B的

10:56

Gemma的

10:56

这些都是开源模型

10:57

就是openrouter平台

10:59

它免费提供给我们使用的

11:00

我们用这些API接口

11:01

它并不会进行付费

11:03

然后下面这几个

11:04

是我自己配置上去的

11:06

haiku、sonnet

11:06

以及刚刚我们所配置上去的

11:08

gemini pro

11:10

那我们就以它为例

11:11

选择一下这个模型

11:14

可以看到这个title

11:15

它已经切换过来了

11:17

显示对应的模型

11:18

我们先让它来介绍一下自己

11:20

它回复是

11:21

Gemini,一个由谷歌开发的多模态AI模型

11:24

我们再来测一个问题

11:26

树上有10只鸟

11:27

开枪打死一只

11:28

还剩几只

11:29

0只,因为枪声会把其他鸟都吓跑了

11:32

OK

11:33

那这个就是

11:34

关于在lobe chat平台里面

11:35

这个套壳应用里面

11:37

怎么样去使用openrouter

11:39

它所提供的API接口

11:41

包括当我们用完以后

11:43

我们其实也可以在API里面

11:46

去查看一下它的使用详情

11:48

3月26号十点四十五分

11:51

通过哪个模型

11:52

然后在哪个平台

11:54

消耗了多少TOKEN

11:55

消耗了多少费用

11:57

然后接下来

11:58

我们来再看一下Chat Next Web

12:00

Chat Next Web的话

12:02

它也是支持本地部署

12:04

支持云端部署

12:05

具体的部署方式

12:06

在我的视频当中也讲了

12:08

我回头会把这些

12:09

相关部署方式视频

12:10

放在我的视频简介里面

12:12

大家可以根据自己的需要

12:14

去选择相应的一些工具

12:15

去部署就可以了

12:17

同样的话

12:18

我们也是

12:19

打开这个应用

12:20

来到设置

12:21

在设置这里

12:22

我们可以看到

12:23

它是可以填自己的API地址

12:25

然后这个API key

12:27

以及这边可以选择模型

12:28

甚至如果说在这个模型当中

12:30

没有你想要的模型

12:31

你这边还可以自定义模型名称

12:34

也是可以选择的

12:35

我们就把openrouter的

12:37

API地址

12:38

给它填进去

12:39

就是它的官网的域名后面

12:41

加上API就可以了

12:43

这边就是API key

12:44

直接填进来

12:45

这里的话我们就随便选一个

12:47

选GPT 3.5 Turbo

12:49

设置完成以后

12:50

关闭

12:51

我们来新建一个对话

12:54

再来测试一下

12:55

直接让他来介绍一下自己

12:58

可以看到

12:59

他说我是由OpenAI开发的

13:01

那这大家就可以清晰的知道

13:03

我们是用同一个key

13:04

同一个API接口

13:06

我们是可以去使用

13:07

不同的大模型的API

13:09

不管是OpenAI的、 Gemini的

13:11

还有Claude

13:12

都是支持的

13:13

同样我们再来问一下

13:15

树上有10只鸟

13:16

开枪打死一只还剩几只

13:19

这答案也是没有问题的

13:20

其他鸟就会被吓走

13:22

我们最后再来演示一个

13:24

就是在谷歌浏览器插件里面

13:27

怎么样去调用

13:28

我们安装好这个插件了

13:30

然后点击设置

13:31

这里的话

13:32

对应你是可以选择相应的

13:34

模型提供商的

13:35

比如说我这边是

13:37

选择OpenAI的

13:39

这里的话

13:39

我也是可以自定义key的

13:42

然后这个key

13:43

我就把刚才复制过来的key

13:46

给它粘贴进去

13:47

模型的话就随机选

13:48

用GPT-4

13:49

我们再把API地址

13:52

给他修改一下

13:53

没有问题之后保存

13:54

没有问题之后保存

13:55

然后我们随机打开一个网页

13:59

就以OpenAI的为示例

14:02

可以看到它已经是使用成功了

14:04

把这个网页都给我们进行一个翻译

14:07

并且是一个中英文的形式

14:09

这个就是关于在插件当中

14:12

怎么样去使用OpenAI

14:13

它所提供的key

14:15

去选择对应的模型

14:16

配置好之后

14:17

就可以直接去启用

14:19

这样的话

14:19

就几乎完美的解决了我们在国内

14:22

使用各种国外大模型的

14:23

API接口的问题

14:25

上面就是关于用openrouter平台

14:28

解决国内使用大模型API困难的问题

14:31

它有一点类似于Poe平台

14:33

Poe是解决c端用户在一个终端里面

14:36

使用各种大模型的问题

14:38

而它是解决一个key

14:40

调用各种大模型API的问题

14:42

如果你有视频开头所说的这些困扰

14:44

那么可以尝试下

14:45

今天这个解决方案

14:47

以上就是本期视频的全部内容

14:49

感谢观看

14:50

如果你喜欢今天这期视频

14:52

如果今天这期视频

14:53

对你有一点点帮助

14:54

请点赞及订阅我的频道

14:56

你的支持对我很重要