Stop paying for ChatGPT with these two tools | LMStudio x AnythingLLM

Tim Carambat
22 Feb 202411:12

Summary

TLDRتشرح في النص المقدم كيفية تثبيت واجهة LM Studio وتطبيق أي شيء LLM على سطح المكتب لتشغيل نموذج LLM محليًا بسهولة. يتضمن الشرح الخطوات لتحميل النماذج من مستودع Hugging Face وتشغيل خادم إكمال باستخدام نموذج Mistral 7B Q4. يظهر النص البرمجي كيف يمكن استخدام أي شيء LLM لتحقيق تجربة محادثة شاملة وغير مفتوحة للجمهور، مع القدرة على إضافة ملفات ومواقع ويب لتحسين الفهم والاستجابة. يشدد المتحدث على أن التجربة النهائية تعتمد على النموذج المستخدم، وينصح بالاختيار من بين النماذج الشهيرة مثل LLaMA 2 أو MiSTOL لتحقيق أفضل النتائج.

Takeaways

  • 😀 توضيح أن ما يسمى '_IMPLEX LABS' هو منشئ 'ANYTHING LLM' ويقدم طريقة سهلة لتشغيل نموذج 'LLM' محليًا على الكمبيوتر الخاص بك.
  • 🛠️ سيستخدم الشرح أدوات تثنيتين يمكن تثبيتها بنقرة واحدة، وهي 'LM STUDIO' و 'ANYTHING LLM DESKTOP' لتحقيق تجربة مستخدم مميزة.
  • 💻 يدعم 'LM STUDIO' ثلاث أنظمة تشغيل مختلفة، لكن التركيز في الشرح هو على الإصدار الويندوزي لأسباب التوافق مع الأجهزة الشخصية التي تحتوي على GPU.
  • 🔗 يوفر 'ANYTHING LLM' واجهة مستخدم خاصة يمكنها التوصيل بأي شيء، وتتضمن ميزات مجانية مفيدة، كما أنه مفتوح المصدر للمساهمات.
  • 📥 يتطلب الشرح تنزيل نموذج 'LLM' معين من 'LM STUDIO'، مما قد يتطلب بعض الوقت، لكن هو الخطوة الرئيسية للبدء في العملية.
  • 📊 يتضمن 'LM STUDIO' واجهة تفاعلية تعرض النماذج الشهيرة مثل 'Google's Gemma'، ويدعم المقارنة بين النماذج المختلفة.
  • 🔍 يمكن للمستخدمين استخدام 'LM STUDIO' لتجربة النماذج المحملة وتجربة واجهة الدردشة البسيطة المدمجة، لكن التركيز هو على استخدام 'ANYTHING LLM' لاستغلال القوة الكاملة.
  • 🔗 يشرح الشرح كيفية الربط بين 'LM STUDIO' و 'ANYTHING LLM' من خلال إعداد الخادم ونسخ عنوان URL المناسب.
  • 📈 يظهر الشرح كيف يمكن لـ 'ANYTHING LLM' استخدام المحتوى الشخصي للتحسين الاستجابة من النموذج 'LLM' عن طريق الإضافة وتضمين المحتوى.
  • 📝 يوضح الشرح أن الدقة في الاستجابة تعتمد على المحتوى المستخدم والمعلومات المتاحة للنموذج، مما يدعم أهمية تضمين المصادر المناسبة.
  • 🌐 يدعم الشرح أن التجربة النهائية هي نظام خاص وكامل للدردشة مع الوثائق بطريقة خاصة، باستخدام أحدث النماذج المفتوحة المصدر.
  • 📚 ينصح الشرح باختيار النماذج القوية مثل 'llama 2' أو 'mistol' لتحقيق أفضل تجربة في الدردشة.

Q & A

  • ما هي implex labs و ما هي العلاقة بينها بـ anything llm؟

    -implex labs هي شركة تأسست من قبل تيموثي كارات، و هي منشئ anything llm، وهي تطبيق يمكن من خلاله تشغيل نموذج LLM محليًا بطريقة سهلة.

  • ما هي anything llm؟

    -anything llm هو تطبيق لوحة التحكم الكامل للدردشة يمكن أن يتصل بأي شيء ويوفر مميزات مجانية واسعة.

  • لماذا يمكن أن تكون تجربة anything llm أفضل إذا كان لدينا GPU؟

    -تتضمن تجربة GPU أفضل لأنها توفر تجربة أسرع وأكثر فعالية عندما يتم استخدام النماذج الأكبر أو الأكثر تعقيدًا.

  • ما هي الأدوات التي سيتم استخدامها لتشغيل anything llm محليًا؟

    -سيتم استخدام LM studio و anything llm desktop، و كلاهما يمكن تثبيته بنقرة واحدة.

  • كيف يمكنني تنزيل وتثبيت anything llm على جهازي؟

    -يمكنك الذهاب إلى anything.com، واختيار التنزيل لـ anything llm للمكتب، ثم تحديد نظام التشغيل المناسب.

  • ماذا يوفر LM Studio؟

    -يوفر LM Studio واجهة تفاعلية لتجربة وتشغيل النماذج المختلفة، ويتضمن خادم الدردشة الداخلي للتفاعل مع النماذج.

  • ما هي الميزة الرئيسية لـ anything llm في سياق الخصوصية؟

    -anything llm هو مفتوح المصدر بالكامل مما يتيح للمستخدمين إضافة التكاملات التي يرغبون فيها، ويوفر أيضًا الخصوصية الكاملة للمستخدمين.

  • كيف يمكنني استخدام LM Studio مع anything llm؟

    -يمكنك بدء تشغيل خادم التحليل في LM Studio ونسخ عنوان URL الخادم ثم نسخه إلى anything llm لربط الخادم.

  • ما هي الخطوات اللازمة للبدء مع anything llm بعد التثبيت؟

    -بعد التثبيت، تحتاج إلى إدخال المعلومات اللازمة مثل السياق الواضح والرابط الأساسي لـ LM Studio، ثم إعداد الخادم وابدأ بإنشاء مساحة عمل جديدة.

  • كيف يمكن أن يساعد anything llm في تحسين فهم النموذج LLM للمحتوى الخاص؟

    -يمكن لـ anything llm إضافة ملفات ومواقع الويب الخاصة للنموذج LLM للتعرف على المحتوى الخاص، مما يساعد على تحسين الاستجابة ودقة النموذج.

  • ماذا تعني الجملة 'anything llm هو أداة الذكاء الاصطناعي لتحليل الأعمال التي توفر نصاً بشريًا'؟

    -تعني أن anything llm يمكنها تحليل وإنشاء رسائل نصية تشبه النص البشري، وتتضمن دعم LLM ومجموعة متنوعة من النماذج للشركات.

  • كيف يمكن لي أن أعرف ما هي النماذج الأكثر تفوقًا لاستخدامها مع anything llm؟

    -يمكنك اختيار النماذج الأكثر شعبية مثل llama 2 أو mistol التي توفر تجربة جيدة، أو يمكنك البحث عن النماذج المتخصصة في مجال معين.

  • لماذا ينصح بمعرفة التفاصيل حول النموذج LLM الذي تختاره؟

    -لأن التفاصيل تحدد التجربة النهائية مع الدردشة، ولكل نموذج خصائص وقدرات مختلفة، فمن المهم اختيار النموذج الذي يناسب احتياجاتك.

  • كيف يمكنني الحصول على مزيد من المعلومات والرابط اللازم لLM Studio و anything llm؟

    -سيتم وضع الروابط في الوصف، مما يتيح لك الوصول إلى التفاصيل والتنزيلات اللازمة.

Outlines

00:00

😀 Introduction to Implex Labs and Anything LLM

Timothy Carat, the founder of Implex Labs and creator of Anything LLM, introduces himself and the purpose of the video. He aims to demonstrate the simplest method to run a highly capable, locally hosted, large language model (LLM) application on a laptop or desktop, preferably with a GPU for an enhanced experience. Timothy mentions two tools, LM Studio and Anything LLM Desktop, which are both single-click installable applications. He highlights that Anything LLM is a fully private, open-source chat application that can connect to various platforms and offers many features for free. The tutorial will guide viewers through setting up LM Studio on a Windows machine, exploring its capabilities, and integrating it with Anything LLM to unlock its full potential.

05:02

🔧 Setting Up LM Studio and Testing the Chat

The video proceeds with a step-by-step guide on setting up LM Studio on a Windows desktop. The process involves downloading and installing LM Studio and Anything LLM Desktop. Timothy explains that the installation of these two programs completes half of the setup. He then demonstrates how to use LM Studio, focusing on downloading models, such as the Mistral 7B Q4 model, from the Hugging Face repository. He also discusses the importance of GPU offloading for faster token processing and provides a brief tutorial on how to use the chat client within LM Studio. The chat client is used to test the model's response to a simple prompt, like saying 'hello,' and to showcase the metrics provided by LM Studio, such as time to first token.

10:03

🤖 Integrating Anything LLM with LM Studio

In this section, Timothy shows how to integrate Anything LLM with LM Studio. He first launches Anything LLM and navigates to the setup for LM Studio, requiring a token context window and the LM Studio base URL. He explains how to start a server in LM Studio to run completions against the selected model. The tutorial continues with instructions on configuring the server, including setting the port, enabling request queuing, and allowing GPU offloading. After starting the server, Timothy demonstrates how to connect LM Studio's inference server to Anything LLM by copying and pasting the necessary URL. He also discusses how to augment the model's knowledge with private documents or by scraping websites, which can then be embedded to improve the model's responses. The video concludes with a demonstration of asking the model a question about Anything LLM and seeing how the response improves after embedding relevant information.

🚀 Conclusion and Future Potential

Timothy concludes the tutorial by emphasizing the ease with which local LLM usage can be achieved using tools like LM Studio and Anything LLM Desktop. He points out that these tools demystify the technical aspects of running a local LLM and allow users to have a comprehensive LLM experience without the need for a subscription to services like OpenAI. He also reminds viewers that the choice of model is crucial for the quality of the chatting experience and suggests opting for popular and capable models like Llama 2 or Mistral. The video ends with an invitation for feedback and a promise to include helpful links in the description for further exploration.

Mindmap

Keywords

💡implex labs

_IMPLEX LABS هي شركة مطورة في مجال التكنولوجيا التي قامت بإنشاء أي شيء LLM (Large Language Model). في النص، يُذكر أن تيموثي كارات هو مؤسس implex labs ويتحدث عن إمكانية استخدام البرمجيات التي طورتها الشركة لتشغيل نموذج لغة متقدم محليًا على الكمبيوتر الخاص بك. هذا المصطلح يشير إلى الدور الذي يمكن أن يلعبه النماذج الأكبر للغة في تحسين تجربة المستخدمين مع التطبيقات الشخصية._

💡anything llm

_ANYTHING LLM هو تطبيق يمكن من خلاله تشغيل نموذج لغة كبير محليًا على الكمبيوتر الخاص بك. يتضمن النص أن هذا التطبيق هو واجهة مستخدم سهلة الاستخدام يمكن من خلالها التواصل مع أي نموذج لغة يمكن تنزيله من hugging face repository. ويتم استخدامه في الفيديو لتوضيح كيف يمكن للمستخدمين استخدامه لتحقيق تجربة محادثة ذكية._

💡LM studio

LM STUDIO هو برنامج يمكن من خلاله إدارة وتشغيل النماذج الأكبر للغة. في النص، يُستخدم لتنزيل وتجربة النماذج المختلفة وتشغيل خادم للتعامل معها. يوفر هذا التطبيق واجهة سهلة الاستخدام لتجربة وتشغيل النماذج الأكبر للغة التي يمكنها التعامل مع مهام معقدة مثل التحدث والتحليل. ويتم في النص توضيح كيفية استخدامه لتشغيل خادم للنماذج التي يمكنها التفاعل مع أي شيء LLM. _

💡windows

Windows هي نظام تشغيل الكمبيوتر الذي يستخدم في المثال المذكور في النص. يُذكر أن تيموثي كارات يستخدم جهازه الشخصي الذي يحتوي على GPU لتجربة وتشغيل التطبيقات التي تم ذكرها، مما يشير إلى أن نظام التشغيل Windows هو المختار لهذه التجربة. ويتم التركيز على نظام التشغيل Windows لأنها البيئة التي سيتم فيها تشغيل التطبيقات التي تم توضيح كيفية استخدامها في الفيديو. _

💡GPU

GPU هي وحدة معالجة الرسوم المتحركة التي يمكنها تسريع العمليات الحسابية التي تتضمن النماذج الأكبر للغة. في النص، يُذكر أن تيموثي كارات يستخدم GPU لتحسين تجربة المستخدمين وزيادة سرعة معالجة النماذج الأكبر لللغة. ويتم التركيز على GPU لأنها توفر تجربة أفضل وسرعات معالجية أسرع للنماذج التي يتم تشغيلها محليًا على الكمبيوتر. _

💡hugging face

Hugging Face هي منصة توفر واجهات برمجة التطبيقات (APIs) ونماذج لغات مفتوحة المصدر التي يمكن استخدامها في تطوير التطبيقات. في النص، يُذكر أن النماذج التي يتم تنزيلها من hugging face repository يمكن استخدامها مع LM Studio وأي شيء LLM. ويتم التركيز على hugging face لأنها المصدر الرئيسي للنماذج التي يمكن استخدامها في التجربة التي يتم شرحها في الفيديو. _

💡Q4 model

Q4 model هو نموذج تم تقليل حجمه من 4 بت، مما يجعله أصغر وأقل محملًا من النماذج الأخرى. في النص، يُذكر أن تيموثي كارات يستخدم نموذجًا من نوع Q4 لتجربة التطبيق. ويتم التركيز على النماذج Q4 لأنها توفر تجربة مستخدم أفضل في الأجهزة التي لديها GPU أقل السعة، مما يجعلها مناسبة للتجربة التي يتم شرحها في الفيديو. _

💡CUDA

CUDA هي بيئة برمجة توفر واجهة برمجة التطبيقات التي تمكن من استخدام GPU لتحسين الأداء الحسابي. في النص، يُذكر أن تيموثي كارات يستخدم CUDA لتمكين GPU offloading، مما يسمح للتطبيق باستغلال قدرات GPU لتحسين الأداء. ويتم التركيز على CUDA لأنها الأداة التي تمكن من تسريع العمليات التي يتم فيها تشغيل النماذج الأكبر لللغة. _

💡chat GPT

Chat GPT هو نموذج لغة يمكن من خلاله التحدث بشكل ذكي مع المستخدمين. في النص، يُذكر أن تيموثي كارات يقارن سرعة النموذج الذي يستخدمه في التجربة بسرعة chat GPT. ويتم التركيز على chat GPT لأنها نموذج مشهور يستخدم في العديد من التطبيقات لتقديم تجربة محادثة ذكية. _

💡open source

Open source هو مفهوم يشير إلى أن الشفرة المصدرية للبرمجيات مفتوحة للجمهور يمكن من خلاله مشاركتها وتطويرها. في النص، يُذكر أن أي شيء LLM هو مفتوح المصدر مما يسمح للمطورين بإضافة متكاملات جديدة أو تعديل الكود. ويتم التركيز على open source لأنها توفر فرصة لتحسين وتوسيع قدرات التطبيقات التي يتم تطويرها. _

Highlights

Timothy Carat, founder of Implex Labs, introduces a locally running, fully capable large language model (LLM).

The tutorial demonstrates setting up Anything LLM and LM Studio for a private AI chat experience.

LM Studio and Anything LLM are both single-click installable applications.

The process is optimized for systems with GPUs but is also possible with CPUs.

LM Studio supports multiple operating systems, with a focus on Windows in this tutorial.

Anything LLM is an all-in-one chat application that is fully private and open source.

The tutorial guides through downloading and setting up models in LM Studio.

Models from Hugging Face repository can be downloaded and used in LM Studio.

Different model types like Q4, Q5, and Q8 are explained, with recommendations for usage.

LM Studio's chat client is used for experimenting with models.

The importance of GPU offloading for faster token generation is discussed.

Anything LLM is downloaded and set up to work with LM Studio.

Instructions on configuring the LM Studio server for model completions are provided.

Connecting the LM Studio inference server to Anything LLM is detailed.

The tutorial shows how to enhance the LLM's knowledge with private documents or web scraping.

A demonstration of asking the model about Anything LLM with and without context.

The ability to embed and modify information within Anything LLM is highlighted.

The video concludes with the benefits of using LM Studio and Anything LLM for a private, end-to-end LLM system.

The tutorial emphasizes the ease of setting up a local LLM without technical expertise.

LM Studio and Anything LLM are positioned as core parts of a local LLM stack.

Transcripts

00:00

hey there my name is Timothy carat

00:01

founder of implex labs and creator of

00:03

anything llm and today I actually want

00:05

to show you possibly the easiest way to

00:08

get a very extremely capable locally

00:12

running fully rag like talk to anything

00:16

with any llm application running on

00:19

honestly your laptop a desktop if you

00:22

have something with the GPU this will be

00:24

a way better experience if all you have

00:26

is a CPU this is still possible and

00:28

we're going to use two tools

00:30

both of which are a single-click

00:31

installable application and one of them

00:34

is LM studio and the other is of course

00:37

anything LM desktop right now I'm on LM

00:40

studio. a they have three different

00:42

operating systems they support we're

00:44

going to use the windows one today

00:46

because that's the machine that I have a

00:49

GPU for and I'll show you how to set it

00:50

up how the chat normally works and then

00:52

how to connect it to anything LM to

00:54

really unlock a lot of its capabilities

00:57

if you aren't familiar with anything llm

00:59

anything llm is is an all-in-one chat

01:01

with anything desktop application it's

01:03

fully private it can connect to pretty

01:06

much anything and you get a whole lot

01:08

for actually free anything in LM is also

01:11

fully open source so if you are capable

01:13

of programming or have an integration

01:14

you want to add you can actually do it

01:16

here and we're happy to accept

01:18

contributions so what we're going to do

01:20

now is we're going to switch over to my

01:22

Windows machine and I'm going to show

01:24

you how to use LM studio with anything

01:27

LM and walking through both of the

01:29

products so that you can really get

01:31

honestly like the most comprehensive llm

01:34

experience and pay nothing for it okay

01:36

so here we are on my Windows desktop and

01:39

of course the first thing we're going to

01:40

want to do is Click LM Studio for

01:43

Windows this is version

01:46

0.216 whatever version you might be on

01:48

things may change a little bit but in

01:50

general this tutorial should be accurate

01:52

you're going to want to go to use

01:54

anything.com go to download anything LM

01:56

for desktop and select your appropriate

01:58

operating system once you have these two

02:00

programs installed you are actually 50%

02:04

done with the entire process that's how

02:06

quick this was let me get LM Studio

02:08

installed and running and we'll show you

02:10

what that looks like so you've probably

02:11

installed LM Studio by now you click the

02:13

icon on your desktop and you usually get

02:15

dropped on this screen I don't work for

02:17

LM studio so I'm just going to show you

02:19

kind of some of the capabilities that

02:20

are relevant to this integration and

02:22

really unlocking any llm you use they

02:25

kind of land you on this exploring page

02:27

and this exploring page is great it

02:28

shows you basically some of the more

02:30

popular models that exist uh like

02:32

Google's Gemma just dropped and it's

02:34

already live that's really awesome if

02:36

you go down here into if you click on

02:38

the bottom you'll see I've actually

02:40

already downloaded some models cuz this

02:42

takes time downloading the models will

02:45

probably take you the longest time out

02:46

of this entire operation I went ahead

02:48

and downloaded the mistal 7B instruct

02:51

the Q4 means 4bit quantized model now

02:55

I'm using a Q4 model honestly Q4 is kind

02:59

of the lowest end you should really go

03:00

for Q5 is really really great Q8 if you

03:04

want to um if you actually go and look

03:07

up any model on LM Studio like for

03:10

example let's look up mistol as you can

03:12

see there's a whole bunch of models here

03:14

for mistol there's a whole bunch of

03:15

different types these are all coming

03:17

from the hugging face repository and

03:20

there's a whole bunch of different types

03:21

that you can find here published by

03:23

bunch of different people you can see

03:25

that you know how many times this one

03:27

has been downloaded this is a very

03:29

popular model and once you click on it

03:31

you'll likely get some options now LM

03:33

studio will tell you if the model is

03:35

compatible with your GPU or your system

03:39

this is pretty accurate I've found that

03:41

sometimes it doesn't quite work um one

03:43

thing you'll be interested in is full

03:44

GPU offloading exactly what it sounds

03:47

like using the GPU as much as you can

03:49

you'll get way faster tokens something

03:52

honestly on the speed level of a chat

03:54

GPT if you're working with a small

03:56

enough model or have a big enough

03:58

graphics card I have 12 gigs of vram

04:01

available and you can see there's all

04:02

these Q4 models again you probably want

04:05

to stick with the Q5 models at least uh

04:08

for the best experience versus size as

04:12

you can see the Q8 is quite Hefty 7.7

04:15

gigs which even if you have fast

04:17

internet won't matter because it takes

04:19

forever to download something from

04:21

hugging face if you want to get working

04:23

on this in the day you might want to

04:24

start to download now for the sake of

04:26

this video I've already downloaded a

04:28

model so now that we have a model

04:30

downloaded we're going to want to try to

04:32

chat with it LM Studio actually comes

04:34

with a chat client inside of it it's

04:37

very very simplistic though and it's

04:39

really just for experimenting with

04:41

models we're going to want to go to this

04:43

chat bubble icon and you can see that we

04:45

have a thread already started and I'm

04:47

going to want to pick the one model that

04:49

I have available and you'll see this

04:51

loading bar continue There are some

04:53

system prompts that you can preset for

04:56

the model I have GPU offloading enabled

04:59

and I've set it to Max already and as

05:02

you can see I have Nvidia Cuda already

05:04

going there are some tools there are

05:06

some other things that you can mess with

05:08

but in general that's really all you

05:10

need to do so let's test the chat and

05:12

let's just say hello how are you and you

05:15

get the pretty standard response from

05:17

any AI model and you even get some

05:19

really cool metrics down here like time

05:21

to First token was 1.21 seconds I mean

05:24

really really kind of cool showing the

05:26

GPU layers that are there however you

05:29

really can't get much out of this right

05:32

here if you wanted to add a document

05:34

you'd have to copy paste it into the

05:36

entire user prompt there's really just a

05:38

lot more that can be done here to

05:40

Leverage The Power of this local llm

05:42

that I have running even though it's a

05:45

quite small one so to really kind of

05:47

Express how powerful these models can be

05:50

for your own local use we're going to

05:52

use anything llm now I've already

05:54

downloaded anything llm let me show you

05:56

how to get that running and how to get

05:57

to LM Studio to work work with anything

06:00

llm just booted up anything llm after

06:03

installing it and you'll usually land on

06:05

a screen like this let's get started we

06:07

already know who we're looking for here

06:09

LM studio and you'll see it asks for two

06:11

pieces of information a token context

06:14

window which is a property of your model

06:16

that you'd already be familiar with and

06:18

then the LM Studio base URL if we open

06:21

up LM studio and go to this local server

06:24

tab on the side this is a really really

06:27

cool part of LM Studio this doesn't work

06:29

with multimodel support So once you have

06:32

a model selected that's the model that

06:34

you are going to be using so here we're

06:36

going to select the exact same model but

06:39

we're going to start a server to run

06:42

completions against this model so the

06:44

way that we do that is we can configure

06:46

the server Port usually it's 1 2 3 4 but

06:49

you can change it to whatever you want

06:51

you probably want to turn off cores

06:53

allow request queuing so you can keep

06:55

sending requests over and over and they

06:57

don't just fail you want to enable log

06:59

buing and prompt formatting these are

07:01

all just kind of debugging tools on the

07:03

right side you are going to still want

07:05

to make sure that you have GPU

07:06

offloading allowed if that is

07:08

appropriate but other than that you just

07:10

click Start server and you'll see that

07:12

we get some logs saved here now to

07:14

connect the LM Studio inference server

07:17

to anything llm you just want to copy

07:20

this string right here up to the V1 part

07:23

and then you're going to want to open

07:24

anything ilm paste that into here I know

07:28

that my models Max to token window is

07:31

496 I'll click next embedding preference

07:34

we don't really even need one we can

07:36

just use the anything LM built in EMB

07:38

better which is free and private same

07:40

for the vector database all of this is

07:42

going to be running on machines that I

07:45

own and then of course we can skip the

07:47

survey and let's make a our first

07:49

workspace and we'll just call it

07:51

anything llm we don't have any documents

07:54

or anything like that so if we were to

07:55

send a chat asking the model about

07:57

anything llm will'll either get get a

07:59

refusal response or it will just make

08:02

something up so let's ask what is

08:05

anything llm and if you go to LM Studio

08:07

during any part you can actually see

08:10

that we sent the requests to the model

08:12

and it is now streaming the response

08:15

first token has been generated

08:17

continuing to stream when anything llm

08:19

does receive that first token stream

08:22

this is when we will uh start to show it

08:25

on our side and you can see that we get

08:27

a response it just kind of pops up

08:28

instantly uh which was very quick but it

08:31

is totally wrong and it is wrong because

08:33

we actually don't have any context to

08:37

give the model on what anything llm

08:39

actually is now we can augment the lm's

08:43

ability to know about our private

08:45

documents by clicking and adding them

08:48

here or I can just go and scrape a

08:50

website so I'm going to go and scrape

08:51

the use.com homepage cuz that should

08:54

give us enough information and you'll

08:56

see that we've scraped the page so now

08:58

it's time to embed it and we'll just run

09:00

that embedding and now our llm should be

09:04

smarter so let's ask the same question

09:06

again but this time knowing that it has

09:09

information that could be

09:13

useful and now you can see that we've

09:15

again just been given a response that

09:17

says anything LM is an AI business

09:19

intelligence tool to form humanlike text

09:22

messages based on prompt it offers llm

09:24

support as well as a variety of

09:25

Enterprise models this is definitely

09:28

much more accur it but we also tell you

09:30

where this information came from and you

09:32

can see that it cited the use.com

09:35

website this is what the actual chunks

09:37

that were used uh to formulate this

09:40

response and so now actually we have a

09:42

very coherent machine we can embed and

09:45

modify create different threads we can

09:47

do a whole bunch of stuff from within

09:49

anything llm but the core piece of

09:51

infrastructure the llm itself we have

09:54

running on LM Studio on a machine that

09:57

we own so now we have a fully private

09:59

endtoend kind of system for chatting

10:02

with documents privately using the

10:04

latest and greatest models that are open

10:06

source and available on hugging face so

10:08

hopefully this tutorial for how to

10:09

integrate LM studio and anything llm

10:12

desktop was helpful for you and unlocks

10:15

probably a whole bunch of potential for

10:16

your local llm usage tools like LM

10:19

studio oama and local AI make running a

10:22

local llm no longer a very technical

10:25

task and you can see that with tools

10:27

that provide an interface like LM Studio

10:29

pair that with another more powerful

10:31

tool built for chatting exclusively like

10:34

anything llm on your desktop and now you

10:36

can have this entire experience and not

10:39

have to pay open AI 20 bucks a month and

10:41

again I do want to iterate that the

10:43

model that you use will determine

10:45

ultimately your experience with chatting

10:47

now there are more capable models there

10:49

are more Niche models for programming so

10:52

be careful and know about the model that

10:54

you're choosing or just choose some of

10:55

the ones that are more popular like

10:57

llama 2 or mistol and you'll honestly be

11:00

great hopefully LM Studio Plus anything

11:02

llm desktop just become a core part of

11:05

your local llm stack and we're happy to

11:07

be a part of it and hear your feedback

11:09

we'll put the links in the description

11:11

and have fun

Rate This

5.0 / 5 (0 votes)

العلامات ذات الصلة
LM Studioمحادثة ذكيةالتكاملالبرمجةالأمانالمصادر المفتوحةالأجهزة الشخصيةالتطبيقات المكتبيةتجربة المستخدمالتحليل التحليلي