最新技巧:一键申请任意大模型API,支持国内信用卡,彻底解决大模型API难题!

AI学长小林
7 Apr 202414:58

Summary

TLDR本期视频介绍了一个名为openrouter的AI聚合器,它能够解决国内用户使用国外主流AI模型API时遇到的账户安全、网络连接和API管理等问题。通过openrouter平台,用户可以使用一个API和一个key调用多种大模型,简化了开发流程和成本。同时,平台支持Visa卡和加密货币支付,降低了支付门槛。此外,openrouter还提供了一些免费的大模型API,方便用户进行简单的服务开发。视频还演示了如何在官网申请API key,并将其应用于不同的套壳应用和插件中。

Takeaways

  • 🌐 介绍了一个名为openrouter的AI聚合器,旨在解决国内用户使用国外主流AI模型API的困难。
  • 🔒 通过openrouter使用API避免了账户安全问题,因为它不需要使用虚拟卡绑定。
  • 🌐 openrouter平台提供了直连服务,无需在API接口中设置代理或中转。
  • 🚀 openrouter极大提高了便捷性,一个API即可对接所有国外主流大模型的API。
  • 💡 openrouter的API接口结构与OpenAI相同,保证了良好的兼容性。
  • 🔑 一个openrouter账号可以创建多个key,并为每个key设置使用额度,方便团队管理。
  • 💳 支持使用国内Visa卡和加密货币进行支付,降低了支付门槛。
  • 💰 openrouter平台的预付费性质降低了整体资金的沉淀成本。
  • 🏷️ openrouter平台充值时会收取手续费,但相比其他中转平台仍有优势。
  • 🆓 平台提供了一些免费的大模型API,如Mistral 7B,可供用户使用。
  • 🛠️ 演示了如何在应用中申请API key,并将其绑定到应用中,以及如何在不同大模型间切换。

Q & A

  • 视频介绍了一个名为openrouter的工具,它主要解决了什么问题?

    -openrouter主要解决了国内用户在使用国外主流大模型API时遇到的困难,如账户安全问题、网络问题、Token速率限制问题以及不同大模型API管理和切换等问题。

  • 使用openrouter平台有什么优势?

    -使用openrouter平台的优势包括账户安全、网络直连、便捷性、通用性和兼容性,以及可以多人使用的账号管理。此外,它还支持Visa卡和加密货币支付,降低了支付门槛,并且预付成本和使用成本相对较低。

  • openrouter平台支持哪些模型?

    -openrouter平台支持包括GPT 3.5、4.0, Turbo、Vision以及16K的所有Open AI模型,还包括Claude、Llama2和Google Gemma等开源模型。

  • 如何通过openrouter平台申请API key并将其应用于应用中?

    -首先在openrouter官网进行注册和充值,然后在设置中创建API key并设置使用额度。之后,将该key填入到相应的应用中,如套壳应用或浏览器插件,并根据需要选择或配置模型。

  • openrouter平台如何确保账户安全?

    -通过openrouter平台申请和使用API,不依赖于国外手机号和信用卡,避免了因官方政策收紧导致的账户封号问题,从而确保了账户的安全。

  • openrouter平台的网络连接有什么特点?

    -openrouter平台可以实现直连,不需要在API接口中设置代理或中转,这样可以减少网络延迟和潜在的连接问题。

  • openrouter平台的兼容性如何?

    -openrouter平台的API接口结构与OpenAI相同,因此兼容性非常好,支持市面上大部分主流的套壳应用一键接入。

  • openrouter平台的支付方式有哪些?

    -openrouter平台支持Visa卡支付,并且可以使用国内的Visa卡直接绑定和支付。此外,平台还支持加密货币支付。

  • openrouter平台的预付成本和使用成本如何?

    -在openrouter平台,用户只需进行一次预付费即可调用各种大模型的API,预付成本较低。使用成本与官方相同,充值时会收取一定比例的手续费。

  • openrouter平台是否提供免费的大模型API?

    -是的,openrouter平台提供了一些开源的免费大模型API,如Mistral 7B,用户可以用这些API提供免费的服务,如翻译等。

  • 如何测试不同大模型在openrouter平台的效果?

    -用户可以在openrouter平台提供的playground中选择多个模型进行对话和测试,这样可以方便地比较不同模型的对话效果和性能。

Outlines

00:00

🤖 介绍AI聚合器openrouter

本段落介绍了一个名为openrouter的AI聚合器,它解决了在国内使用国外主流大模型API时遇到的困难,如账户安全、网络问题、Token速率限制等。通过openrouter平台,用户可以方便地使用和管理各种国外大模型API,无需国外手机号和信用卡。平台支持包括GPT 3.5、4.0, Turbo、Vision以及16K在内的所有Open AI模型,以及Claude、Llama2和Google Gemma等开源模型。

05:01

💳 openrouter平台的优势与支付方式

这一段详细介绍了openrouter平台的优势,包括账户安全、网络直连、便捷性和通用性兼容性。平台的API接口结构与OpenAI一致,支持一键接入多种主流套壳应用。此外,平台允许一个账号多人使用,并可为每个key设置使用额度。支付方面,支持Visa卡和加密货币支付,降低了使用门槛。同时,平台提供了一些免费的大模型API,如Mistral 7B,供用户使用。

10:03

🔧 演示如何申请和使用openrouter API

这部分内容通过实际操作演示了如何在openrouter官网申请API key,并将其绑定到不同的应用中。首先,在官网的playground中选择并测试不同模型的对话效果。然后,演示了如何使用国内的Visa卡进行充值和申请API key。最后,展示了如何在lobechat、Chat Next Web和沉浸式翻译插件中调用和切换不同的大模型API,以及如何查看API的使用详情。

Mindmap

视频目的
视频内容
视频效果
视频概述
账户安全
网络问题
管理成本
支付门槛
主要问题
账户安全
网络直连
便捷性
通用性和兼容性
多人使用
支付方式
预付成本
使用成本
免费API
openrouter平台优势
官网访问
充值申请
应用对接
模型切换
使用详情
使用演示
解决方案
观众行动
总结
AI聚合器介绍
Alert

Keywords

💡AI聚合器

AI聚合器是一种工具或平台,它能够将多个AI模型或服务集成在一起,方便用户通过统一的接口进行调用和管理。在视频中,AI聚合器解决了使用国外主流大模型API时遇到的困难,如账户安全、网络问题等。

💡API

API是应用程序编程接口的简称,它允许不同的软件系统之间进行交互和数据共享。在视频中,API特指AI模型提供的接口,通过这些接口,开发者可以调用AI模型的功能。

💡账户安全

账户安全指的是保护用户账户不受到非法访问、盗用或其他安全威胁的措施。在视频中,提到通过openrouter平台使用API可以避免直接使用国外API可能遇到的账户安全问题。

💡网络问题

网络问题通常指在使用网络服务时遇到的连接、速度或稳定性方面的问题。在视频内容中,网络问题主要是指在使用国外API时可能需要通过代理或中转,而通过openrouter平台可以直连,避免了这些问题。

💡Token速率限制

Token速率限制是指对API调用的频率或数量进行限制,以防止滥用和确保服务的稳定性。在视频中,提到使用国外大模型API时可能会遇到Token速率限制的问题。

💡API管理

API管理涉及对API的创建、发布、维护和监控等一系列活动。在视频内容中,API管理主要是指个人或小团队在使用多个国外大模型API时面临的挑战。

💡支付问题

支付问题通常指在进行交易或购买服务时遇到的支付方式、支付安全或支付门槛等问题。在视频中,提到通过openrouter平台使用API时,支付问题得到了简化。

💡预付成本

预付成本是指在使用服务之前需要预先支付的费用。在视频内容中,预付成本是指在使用大模型API之前需要先充值的费用。

💡使用成本

使用成本是指在使用服务过程中产生的费用。在视频内容中,使用成本特指调用大模型API时产生的费用。

💡免费API

免费API是指可以无需支付费用即可使用的API服务。在视频中,提到openrouter平台提供了一些免费的大模型API,用户可以利用这些API提供服务而不需要支付费用。

💡多人使用

多人使用指的是一个账号或服务可以被多个用户共享和使用。在视频内容中,openrouter平台允许一个账号创建多个key,并且可以为每个key设置使用额度,从而支持多人使用。

Highlights

欢迎来到AI学长的频道, 我是小林

分享一个非常实用的AI聚合器—openrouter

解决了使用所有国外主流大模型API困难的问题

openrouter完美解决账户安全、网络问题、Token速率限制等问题

通过一个key使用切换任意的大模型

支持GPT 3.5、4.0、Turbo、Vision以及16K等OpenAI模型

还包括Claude、Llama2、Google Gemma等开源模型

openrouter平台的便捷性是最大的优势

API接口结构的通用性以及兼容性

支持一键接入多种套壳应用

支持多人使用,每个key可以设置使用额度

支持直接用Visa卡和加密货币支付

通过openrouter平台可以降低预付成本和使用成本

提供一些免费的大模型API,如Mistral 7B

演示如何申请openrouter平台的API和在应用中对接

在lobe chat、Chat Next Web和谷歌浏览器插件中使用openrouter API

openrouter解决了国内使用大模型API困难的问题

Transcripts

00:00

你好

00:01

欢迎来到AI学长的频道

00:02

我是小林

00:03

这期视频

00:04

给大家分享一个非常实用的AI聚合器

00:07

它完美的解决了

00:08

使用所有国外主流

00:10

大模型API困难的问题

00:12

比如当你要用ChatGPT

00:13

或者Claude API的时候

00:15

就必须要有国外的手机号

00:17

以及国外的信用卡

00:18

这个问题

00:19

虽然可以通过一些方法解决

00:21

在我之前的频道里面

00:22

也分享过相关视频

00:24

但是假如你是大模型API的重度用户

00:27

就会面临一些新的问题

00:29

比如说账户安全问题

00:31

网络问题

00:32

Token速率限制的问题

00:33

还有不同大模型API管理

00:35

以及切换等等问题

00:37

总之

00:38

只要是个人或者小的开发团队

00:40

要在国内使用国外这些大模型的API

00:43

会面临各种各样的困难

00:45

那么今天这期视频

00:46

可以让你彻底摆脱这些困扰

00:48

在国内也可以非常顺畅

00:50

且非常便捷的

00:51

使用各种国外大模型的API

00:54

如果你喜欢今天这个话题

00:55

麻烦动动你的小手赞一赞

00:58

这个工具的名字呢叫openrouter

01:01

它是一个大模型的API聚合平台

01:05

已经把国外目前主流的

01:07

不管是开源的还是闭源的这些模型

01:09

都接入进去了

01:11

那么后续的话

01:11

我们只要通过openrouter

01:12

它给我们提供的API接口

01:14

以及它所提供的key

01:16

我们就可以直接调用

01:18

各种主流的国外大模型

01:20

通过一个key

01:21

就可以使用切换任意的大模型

01:24

所以用起来就非常非常的方便

01:26

比如说

01:26

我们在它支持的模型里面

01:28

可以看到

01:29

它是支持像GPT的3.5、4.0

01:33

Turbo、Vision以及16K的

01:35

所有的Open AI模型在这边都是支持的

01:38

包括像Claude

01:39

也是一样的

01:40

另外包括像一些开源模型

01:43

Llama2

01:43

还有Google Gemma也是支持的

01:46

为了方便大家对比

01:47

通过openrouter平台

01:49

去调用各种国外大模型的API

01:51

有哪些优势

01:52

这里我做了这样一个表格

01:54

方便大家更直观的去了解

01:57

首先是账户安全问题

01:59

假如说我们在国内

02:01

去调用OpenAI的API

02:03

或者Claude的API

02:05

可能会面临一些账户安全问题

02:07

因为我们没有直接的网络

02:09

以及没有直接的支付卡

02:11

都是通过一些虚拟卡的方式

02:13

去绑定使用

02:14

所以相对来说

02:15

如果官方的政策一收紧

02:17

像这类账号

02:18

可能就会面临账户的封号问题

02:21

但是如果是说

02:22

你通过openrouter平台去申请API

02:24

去使用API

02:25

是不会有这一类问题的

02:27

然后第二个的话是网络问题

02:29

通过openrouter这个平台

02:31

我们是可以直连的

02:32

不需要在API接口里面

02:34

去做代理

02:35

或者中转

02:36

第三个的话是便捷性

02:39

这个也是我觉得openrouter平台

02:41

最大的一个优势

02:42

它只要一个API

02:44

就可以对接所有

02:45

国外的主流大模型的API

02:48

不需要我们人为的

02:50

去挨个去申请

02:51

然后挨个去开发

02:53

不管是管理成本

02:54

还是切换成本

02:55

还是说开发成本

02:57

我觉得都是大大降低的

02:59

第四个

03:00

是通用性以及兼容性

03:02

它的API接口结构

03:04

是和OpenAI一样的

03:07

所以它的兼容性就非常的好

03:09

目前市面上大部分主流的套壳应用

03:12

它都是支持一键接入的

03:14

比如说像我们自己部署的

03:16

还有一些第三方的Web UI

03:17

桌面端应用Chatbox

03:19

以及一些浏览器插件

03:21

像Webpoilt

03:22

沉浸式翻译

03:23

还有一些主流的套壳APP

03:25

它都是支持使用openrouter的API

03:28

支持一键接入的

03:30

另外就是说

03:31

它这个平台

03:32

还有一个优势

03:33

就是说你申请一个账号

03:35

它是可以满足多人使用的

03:37

我们可以在一个账号里面

03:39

创建多个key

03:40

而且还可以给每一个key

03:42

设置使用额度

03:45

接下来的话是关于支付的问题

03:48

像这一块的话

03:49

我们是可以直接用Visa卡支付的

03:51

你用国内的Visa卡

03:53

可以直接绑定到openrouter平台

03:55

那么后续使用

03:56

你都可以通过国内的Visa卡

03:58

直接进行扣款支付

04:00

相对来说支付的门槛

04:02

也是会比使用

04:03

ChatGPT、Claude的API

04:05

直接去使用

04:06

这个门槛是更低的

04:07

另外它还支持加密货币支付

04:11

不需要我们去申请虚拟信用卡

04:12

节约充值的成本

04:14

接下来的话就是预付成本

04:16

以及使用成本

04:17

像现在大模型的这些API平台

04:20

它都已经改成了预付费的性质

04:22

也就是说

04:23

你要用它的API

04:24

你必须要先充值

04:26

充值完成之后

04:27

才可以使用

04:28

如果是说

04:29

你要用不同大模型平台的API

04:31

你就要在每个平台里面

04:33

都进行预付费

04:35

这样的话

04:36

整体资金的沉淀成本就会比较高

04:38

而通过openrouter平台

04:40

你只要在它这个平台里面

04:42

进行一个预付费

04:43

你就可以直接去调用各种大模型的API

04:46

相对来说

04:47

预付成本就会更低

04:49

接下来是关于使用成本

04:52

像这个平台

04:53

它里面所有的模型输入

04:55

以及输出的成本

04:56

全部是和官方一样的

04:59

其实在这里我们也可以看到

05:00

比如说Claude3 haiku

05:02

它每100万Token的输入成本

05:05

以及输出成本

05:06

都是跟官方一样的

05:07

唯一的额外费用

05:09

就是说他在充值的时候

05:11

会收取手续费

05:12

如果是说信用卡

05:14

会收取5%的手续费

05:16

加上每笔金额0.35美金的手续费

05:20

如果说你是用虚拟货币充值的

05:22

那么直接是收取5%的手续费

05:25

相对来说

05:26

对比其他的一些中转平台

05:28

openrouter平台还是有优势的

05:30

然后还有一个其他优势

05:32

就是它在这个平台里面

05:34

其实还给我们提供了一些

05:36

像开源的

05:37

免费的大模型的API

05:40

我们可以看到

05:41

像这些带free的

05:42

比如说这个Mistral 7B

05:44

就是免费提供的

05:46

这样的话

05:46

其实后期

05:47

我们也可以用这个免费的

05:49

这些API接口

05:50

去提供一些简单的服务

05:51

比如说用来做翻译

05:53

都不会去收费

05:54

这个的话就是关于它的一个优势

05:57

接下来

05:58

我们来介绍一下使用

05:59

怎么去申请这个平台的API

06:01

以及怎么样把它

06:02

对接到我们应用当中去

06:03

首先

06:04

我们来到它的官网

06:06

这个是它的首页

06:07

可以看到菜单

06:08

菜单的话

06:09

这边是提供了一个playground

06:12

在这里面

06:12

我们是可以自由的选择

06:14

你想要对话的模型

06:16

并且它是可以多选的

06:18

那么你选择完成之后

06:20

并且把它开启

06:20

我们可以在这边的对话框里面

06:22

同时跟这些大模型进行对话

06:24

比如说现在这里的模型

06:26

我选择了3.5

06:27

Mistral还有这个Claude3 Opus

06:30

那么我在这边发送一下

06:32

这样一个prompt

06:34

可以看到我右边选择的这些大模型

06:36

他在这个对话窗口当中

06:38

同时回答了我的问题

06:39

那么在playground当中

06:41

我们也可以去做

06:42

不同大模型的对话效果测试

06:44

使用起来还是非常方便的

06:46

接下来

06:46

我们来演示一下充值

06:48

以及申请API key

06:49

然后把它绑定到我们这里应用当中

06:52

以及去进行API的切换

06:54

去使用不同大模型

06:56

我们直接来到setting

06:58

然后来点击积分按钮

07:00

这里它是支持银行卡支付

07:03

Cash APP以及美国的银行卡

07:06

还有谷歌Pay

07:07

这里的话

07:07

我就用自己国内的招行Visa卡

07:10

给它进行绑定一下

07:12

我们把自己的卡片信息

07:13

给它填入进去

07:15

我们点击提交

07:16

可以看到这个卡

07:17

它已经绑定上了

07:19

我们现在可以

07:20

进行充值

07:21

比如说我充值10美金进去

07:24

他这边的话是有一个计费的

07:26

总共是要收取5%的手续费

07:30

加固定的0.35美金

07:32

一笔的单笔费用

07:34

这边的话就是你充值的越多

07:36

肯定是越划得来的

07:38

然后我点击一下充值

07:40

可以看到余额已经充值成功了

07:43

所以我们直接用openrouter平台

07:45

去申请大模型的API

07:47

就不用像直接

07:48

去对接官方这么麻烦

07:50

你必须要用国外的信用卡

07:52

那么充值完成以后

07:54

我们这边就是

07:55

可以去申请一下自己的key

07:57

点击创建key

07:59

你可以给这个key

08:00

设置一个名字

08:01

比如说我这边就命名test key

08:04

然后大家可以注意一下这个按钮

08:05

它其实是可以给每一个key

08:07

去设置使用额度的上限

08:09

比如说我是让它上限

08:11

可以用5美金的额度

08:14

它已经把这个key

08:15

给我发过来了

08:17

我们复制一下

08:18

待会的话就可以

08:19

在应用端直接去使用

08:21

包括后面你自己创建的每一个key

08:23

都可以在这边看到它的使用额度

08:25

以及它使用的一个详情

08:27

如果是团队使用

08:28

通过这个平台

08:29

其实管理也是非常方便的

08:31

接下来

08:32

我们就来演示一下

08:33

怎么样在应用当中去调用这个key

08:35

以及怎么样去切换不同的

08:37

这些国外主流大模型

08:39

这里的话我就用lobechat

08:41

还有这个比较经典的套壳应用

08:44

Chat Next Web

08:45

还有的话

08:45

我们经常在用的翻译插件

08:48

沉浸式翻译

08:49

我会把它的key

08:50

填入到这三个工具当中

08:52

然后演示

08:53

怎么样去切换它的模型

08:55

以及它的一个实际效果

08:57

OK

08:57

首先是lobechat

09:00

关于lobechat

09:01

它是提供了线上版本

09:02

以及本地部署版本

09:04

大家可以看到这个网址

09:05

首先这个是线上版

09:07

本官方所提供的

09:08

我们在这里面

09:09

是可以直接使用

09:10

openrouter它对应的一些模型的

09:12

在这里面的话

09:13

是可以自定义自己的模型

09:15

那么你也可以

09:15

在自己本地去部署

09:17

套壳应用lobe chat

09:19

相对来说

09:20

这个套壳应用

09:21

它的功能也非常的强大

09:23

具体的部署方式

09:24

在我原来的视频当中是有讲过的

09:27

这期视频

09:28

震惊!免费替代ChatGPT plus

09:30

这个项目做到了

09:31

它是支持GPTS GPT-4v

09:33

以及Plugins插件

09:35

在本地的套壳应用当中

09:36

是支持这些东西的

09:38

另外它也支持我们今天

09:39

所说的openrouter的API

09:42

如果是说你是首次部署好以后

09:44

我们可以点击这个设置

09:47

然后来到它的语言模型这里

09:50

它目前是支持

09:51

这些平台的API接口

09:53

现在我们直接来到openrouter

09:55

把它打开

09:56

把刚才我们在平台

09:58

所获得的key

10:00

给它填到这里来

10:02

这里的话

10:03

你需要它支持哪些模型

10:05

你就把这个模型的名字给它填入进去

10:08

如果是多个模型

10:10

就用英文的逗号

10:11

给它分割一下就好了

10:13

我给大家演示一下

10:14

比如说

10:15

这里我是希望

10:17

它支持Gemini的

10:19

我们就搜一下Gemini

10:20

然后我随机点一个进去

10:22

Gemini Pro 1.0

10:24

可以看到

10:25

它这边其实是有模型地址的

10:27

我们点击一下复制

10:30

然后来到这里

10:31

英文的逗号

10:32

然后把这个模型给它粘贴进去

10:35

点击一下检查

10:36

检查通过

10:37

那就代表我们可以

10:38

正常的去使用这些模型

10:39

你的API key也是正确的

10:41

设置完成之后

10:42

我们就来到对话窗口

10:44

点击这个脑图这里

10:46

模型这里它是可以自由的去选择

10:49

你配置好的这些模型

10:51

然后这里可以看到

10:52

它还有一些free的模型

10:54

Mistral 7B的

10:56

Gemma的

10:56

这些都是开源模型

10:57

就是openrouter平台

10:59

它免费提供给我们使用的

11:00

我们用这些API接口

11:01

它并不会进行付费

11:03

然后下面这几个

11:04

是我自己配置上去的

11:06

haiku、sonnet

11:06

以及刚刚我们所配置上去的

11:08

gemini pro

11:10

那我们就以它为例

11:11

选择一下这个模型

11:14

可以看到这个title

11:15

它已经切换过来了

11:17

显示对应的模型

11:18

我们先让它来介绍一下自己

11:20

它回复是

11:21

Gemini,一个由谷歌开发的多模态AI模型

11:24

我们再来测一个问题

11:26

树上有10只鸟

11:27

开枪打死一只

11:28

还剩几只

11:29

0只,因为枪声会把其他鸟都吓跑了

11:32

OK

11:33

那这个就是

11:34

关于在lobe chat平台里面

11:35

这个套壳应用里面

11:37

怎么样去使用openrouter

11:39

它所提供的API接口

11:41

包括当我们用完以后

11:43

我们其实也可以在API里面

11:46

去查看一下它的使用详情

11:48

3月26号十点四十五分

11:51

通过哪个模型

11:52

然后在哪个平台

11:54

消耗了多少TOKEN

11:55

消耗了多少费用

11:57

然后接下来

11:58

我们来再看一下Chat Next Web

12:00

Chat Next Web的话

12:02

它也是支持本地部署

12:04

支持云端部署

12:05

具体的部署方式

12:06

在我的视频当中也讲了

12:08

我回头会把这些

12:09

相关部署方式视频

12:10

放在我的视频简介里面

12:12

大家可以根据自己的需要

12:14

去选择相应的一些工具

12:15

去部署就可以了

12:17

同样的话

12:18

我们也是

12:19

打开这个应用

12:20

来到设置

12:21

在设置这里

12:22

我们可以看到

12:23

它是可以填自己的API地址

12:25

然后这个API key

12:27

以及这边可以选择模型

12:28

甚至如果说在这个模型当中

12:30

没有你想要的模型

12:31

你这边还可以自定义模型名称

12:34

也是可以选择的

12:35

我们就把openrouter的

12:37

API地址

12:38

给它填进去

12:39

就是它的官网的域名后面

12:41

加上API就可以了

12:43

这边就是API key

12:44

直接填进来

12:45

这里的话我们就随便选一个

12:47

选GPT 3.5 Turbo

12:49

设置完成以后

12:50

关闭

12:51

我们来新建一个对话

12:54

再来测试一下

12:55

直接让他来介绍一下自己

12:58

可以看到

12:59

他说我是由OpenAI开发的

13:01

那这大家就可以清晰的知道

13:03

我们是用同一个key

13:04

同一个API接口

13:06

我们是可以去使用

13:07

不同的大模型的API

13:09

不管是OpenAI的、 Gemini的

13:11

还有Claude

13:12

都是支持的

13:13

同样我们再来问一下

13:15

树上有10只鸟

13:16

开枪打死一只还剩几只

13:19

这答案也是没有问题的

13:20

其他鸟就会被吓走

13:22

我们最后再来演示一个

13:24

就是在谷歌浏览器插件里面

13:27

怎么样去调用

13:28

我们安装好这个插件了

13:30

然后点击设置

13:31

这里的话

13:32

对应你是可以选择相应的

13:34

模型提供商的

13:35

比如说我这边是

13:37

选择OpenAI的

13:39

这里的话

13:39

我也是可以自定义key的

13:42

然后这个key

13:43

我就把刚才复制过来的key

13:46

给它粘贴进去

13:47

模型的话就随机选

13:48

用GPT-4

13:49

我们再把API地址

13:52

给他修改一下

13:53

没有问题之后保存

13:54

没有问题之后保存

13:55

然后我们随机打开一个网页

13:59

就以OpenAI的为示例

14:02

可以看到它已经是使用成功了

14:04

把这个网页都给我们进行一个翻译

14:07

并且是一个中英文的形式

14:09

这个就是关于在插件当中

14:12

怎么样去使用OpenAI

14:13

它所提供的key

14:15

去选择对应的模型

14:16

配置好之后

14:17

就可以直接去启用

14:19

这样的话

14:19

就几乎完美的解决了我们在国内

14:22

使用各种国外大模型的

14:23

API接口的问题

14:25

上面就是关于用openrouter平台

14:28

解决国内使用大模型API困难的问题

14:31

它有一点类似于Poe平台

14:33

Poe是解决c端用户在一个终端里面

14:36

使用各种大模型的问题

14:38

而它是解决一个key

14:40

调用各种大模型API的问题

14:42

如果你有视频开头所说的这些困扰

14:44

那么可以尝试下

14:45

今天这个解决方案

14:47

以上就是本期视频的全部内容

14:49

感谢观看

14:50

如果你喜欢今天这期视频

14:52

如果今天这期视频

14:53

对你有一点点帮助

14:54

请点赞及订阅我的频道

14:56

你的支持对我很重要