15 مهر 1404
یک راهحل قدرتمند به کاربران اجازه میدهد تا به تمام مدلهای اصلی هوش مصنوعی مانند ChatGPT، Claude، Gemini و Grok از طریق یک رابط کاربری واحد و با میزبانی شخصی، با استفاده نامحدود و بدون نیاز به پرداخت هزینههای طرحهای جداگانه، دسترسی پیدا کنند. این تنظیمات همچنین کنترل کاملی بر دسترسی کاربران، در دسترس بودن مدلها و مدیریت بودجه برای خانواده و کارمندان فراهم میکند.

امکان دسترسی به مدلهای اصلی هوش مصنوعی، از جمله ChatGPT، Claude، Gemini و Grok، از طریق یک رابط کاربری واحد و با میزبانی شخصی وجود دارد که استفاده نامحدود و دسترسی فوری به جدیدترین مدلها را بدون نیاز به اشتراکهای طرحهای جداگانه فراهم میکند.
این سیستم امکان ایجاد حساب کاربری برای چندین کاربر، مانند کارمندان، اعضای خانواده یا کودکان را فراهم میکند، در حالی که کنترل دقیق بر اینکه به کدام مدلهای هوش مصنوعی میتوانند دسترسی داشته باشند و چه نوع پرسشهایی را میتوانند مطرح کنند، ارائه میدهد. تاریخچه چتها را میتوان برای نظارت، به ویژه برای کاربران جوانتر، مشاهده کرد و بر اهمیت آموزش استفاده مسئولانه از هوش مصنوعی تاکید کرد.
استفاده از یک راهحل با میزبانی شخصی، امنیت و حریم خصوصی دادهها را افزایش میدهد و مجموعهای غنی از ویژگیها را ارائه میدهد که تجربه کاربری را بسیار جذاب و احتمالاً برتر از استفاده مستقیم از پلتفرمهای هوش مصنوعی میسازد.
Open Web UI یک رابط وب متنباز و با میزبانی شخصی است که برای هوش مصنوعی طراحی شده و قادر به پشتیبانی از مدلهای زبانی بزرگ (LLMs) مختلف است، از جمله سرویسهای ابری مانند ChatGPT و Claude، و مدلهای با میزبانی شخصی مانند Llama 3، Myre و Deep Seek. سادگی آن امکان استفاده فوری را فراهم میکند، اگرچه یک هشدار وجود دارد که ممکن است به دلیل ماهیت میزبانی شخصی آن برای همه مناسب نباشد.
دو گزینه اصلی میزبانی برای Open Web UI وجود دارد: یک سرور خصوصی مجازی (VPS) در فضای ابری برای سهولت و سرعت، یا میزبانی محلی (on-premise) بر روی دستگاههایی مانند لپتاپ، NAS یا Raspberry Pi.
راهاندازی Open Web UI بر روی یک Cloud VPS شامل انتخاب یک طرح مانند KVM 2 است که مشخصات قوی مانند CPU AMD EPYC، 8GB RAM، فضای ذخیرهسازی NVMe، و ویژگیهای پشتیبانگیری/اسنپشات را ارائه میدهد و قادر به میزبانی چندین پروژه است. این فرآیند شامل انتخاب نصب سیستم عامل مبتنی بر برنامه برای Llama و Open Web UI بر روی Ubuntu 24.04 و سپس تنظیم یک رمز عبور root است.
فراتر از مدلهای با میزبانی شخصی، Open Web UI میتواند از طریق واسطهای برنامهنویسی کاربردی (APIها) به سرویسهای هوش مصنوعی ابری مانند OpenAI (ChatGPT) و Claude متصل شود. این مدل API 'پرداخت به ازای استفاده' معمولاً دسترسی به تمام مدلهای موجود، از جمله مدلهای تازه منتشر شده را، زودتر و احتمالاً مقرون به صرفهتر از اشتراکهای ماهانه استاندارد، به ویژه برای کاربران کممصرف، فراهم میکند.
برای ادغام مدلهای OpenAI، کاربران باید در یک حساب API OpenAI ثبتنام کنند، یک کارت اعتباری برای صورتحساب مبتنی بر استفاده (مثلاً یک شارژ اولیه 5 دلاری) اضافه کنند و یک کلید API مخفی تولید کنند. این کلید سپس در پنل مدیریت Open Web UI زیر بخش 'connections' وارد میشود تا دسترسی به تمام مدلهای OpenAI، از جمله آخرین نسخههای GPT، باز شود.
تعاملات هوش مصنوعی معمولاً بر اساس 'توکن' شارژ میشوند که تقریباً با کلمات یا بخشهایی از کلمات پیچیده مطابقت دارد و علائم نگارشی نیز به عنوان توکن محاسبه میشوند. هزینه به ازای هر میلیون توکن به طور قابل توجهی بسته به مدل متفاوت است، به طوری که مدلهای هوشمندتر و پرمصرفتر مانند GPT-4.5 به طور قابل توجهی گرانتر از مدلهای کوچکتر هستند. طول مکالمه بر مصرف توکن تأثیر میگذارد، زیرا متن مکالمه با هر پیام ارسال میشود و به طور بالقوه هزینهها را به صورت تصاعدی افزایش میدهد.
در حالی که استفاده از API میتواند برای کاربران عادی صرفهجویی مالی داشته باشد (مثلاً 0.50 دلار برای 50 مکالمه در ماه با استفاده از مدل 4.0)، این امر تضمین شده نیست، به خصوص برای کاربران پرمصرف که هزینهها میتواند به سرعت افزایش یابد. انگیزه اصلی این تنظیمات، دسترسی یکپارچه، مدیریت ساده و کنترل دقیق است تا صرفهجویی تضمین شده در هزینه.
برای غلبه بر محدودیت Open Web UI در اتصال بومی تنها به APIهای OpenAI و Ollama، LightLLM به عنوان یک پراکسی یا دروازه هوش مصنوعی عمل میکند. LightLLM به بیش از صد ارائهدهنده هوش مصنوعی، از جمله Anthropic (Claude)، Google (Gemini)، X.ai (Grok) و Deep Seek متصل میشود و یک نقطه پایانی API سازگار با OpenAI را برای Open Web UI فراهم میکند.
LightLLM بر روی همان سروری که Open Web UI نصب شده است، معمولاً از طریق Docker نصب میشود. این فرآیند شامل کلون کردن مخزن LightLLM، پیکربندی متغیرهای محیطی برای یک کلید اصلی (master key) و کلید نمکی (salt key) (برای رمزنگاری) و سپس اجرای `docker-compose up -d` برای ساخت و استقرار سرور است. کاربران سپس با استفاده از کلید اصلی از طریق یک پورت خاص (مثلاً 4000) به پنل مدیریت LightLLM دسترسی پیدا میکنند.
در پنل مدیریت LightLLM، کاربران میتوانند مدلهای هوش مصنوعی مختلفی را از ارائهدهندگان متفاوت (مثلاً مدلهای Claude از Anthropic) اضافه کنند و 'کلیدهای API مجازی' ایجاد کنند. این کلیدهای مجازی کنترل پیشرفتهای را ارائه میدهند و به مدیران اجازه میدهند تا مشخص کنند که کدام مدلها برای کاربران یا گروههای خاصی قابل دسترسی باشند، بودجههای ماهانه برای استفاده تعیین کنند و حتی محدودیتهایی (guardrails) برای محتوا اعمال کنند.
پس از پیکربندی LightLLM، کلید API مجازی و URL لوکال هاست آن (مثلاً `http://localhost:4000`) در تنظیمات اتصالات Open Web UI استفاده میشوند. این ادغام به Open Web UI اجازه میدهد تا به تمام مدلهای پیکربندی شده در LightLLM دسترسی پیدا کند، گویی که آنها مدلهای بومی OpenAI هستند، که امکان مکالمات چند هوش مصنوعی و ویژگیهای مقایسه را فراهم میکند.
پنل مدیریت Open Web UI امکان ایجاد گروههای کاربری (مثلاً 'بچهها')، اختصاص مدلهای خاص به این گروهها، و اعمال دستورات سیستمی (system prompts) یا محدودیتها (guardrails) را فراهم میکند. به عنوان مثال، یک دستور سیستمی میتواند به یک مدل هوش مصنوعی آموزش دهد که به عنوان 'کمککننده مدرسه' عمل کند و کودکان را بدون ارائه پاسخهای مستقیم یا امکان تقلب راهنمایی کند، در حالی که موضوعات را نیز به موارد مرتبط با مدرسه محدود میکند. مدیران همچنین میتوانند تاریخچه چت هر کاربر را بررسی کنند.
پلتفرم Open Web UI بسیاری از ویژگیهای پیشرفته اضافی را ارائه میدهد که به طور کامل پوشش داده نشدهاند، مانند ابزارها (tools)، دستورات (prompts)، توابع (functions)، خطوط لوله (pipelines) و تولید تصویر. تنظیم یک نام دامنه کاربرپسند (DNS) برای سرور هوش مصنوعی با میزبانی شخصی برای دسترسی آسانتر نسبت به آدرس IP توصیه میشود.
این ممکن است راه بهتری برای استفاده از هوش مصنوعی باشد، که یک رابط کاربری واحد، کنترل یکپارچه و دسترسی به تمام مدلهای هوش مصنوعی را برای همه اعضای تیم یا خانواده شما فراهم میکند.
| Feature | Description | Benefit |
|---|---|---|
| دسترسی یکپارچه هوش مصنوعی | دسترسی به ChatGBT، Claude، Gemini، Grok و موارد دیگر از طریق یک رابط کاربری واحد. | تجربه یکپارچه، بدون نیاز به تغییر پلتفرم یا پرداخت اشتراکهای متعدد. |
| میزبانی شخصی | میزبانی رابط کاربری و برخی LLMها بر روی سرور خودتان (Cloud VPS یا محلی). | امنیت و حریم خصوصی دادهها افزایش یافته، و کنترل کامل بر محیط هوش مصنوعی شما. |
| مدیریت و کنترل کاربر | ایجاد حساب کاربری برای چندین کاربر (خانواده، کارمندان) با دسترسی و بودجه قابل تنظیم. | تجربه هوش مصنوعی سفارشی برای هر کاربر، کنترلهای والدین و مدیریت هزینه. |
| دسترسی مبتنی بر API | اتصال به LLMهای ابری (OpenAI, Anthropic) از طریق APIهای آنها به جای اشتراکهای مستقیم. | هزینه بالقوه کمتر برای استفاده متوسط، دسترسی زودهنگام به مدلهای جدید و صورتحساب یکپارچه. |
| پراکسی LightLLM | گسترش سازگاری Open Web UI به بیش از 100 ارائهدهنده هوش مصنوعی با استفاده از LightLLM به عنوان یک دروازه. | رفع وابستگی به یک ارائهدهنده خاص، امکان ادغام LLMهای متنوع فراتر از پشتیبانی بومی، مدیریت متمرکز کلیدهای API. |
| محدودیتها و دستورات سیستمی | اعمال دستورات سیستمی سفارشی و محدودیتها بر مدلهای هوش مصنوعی برای کاربران/گروههای خاص. | اطمینان از استفاده مسئولانه از هوش مصنوعی (مثلاً صداقت آکادمیک برای دانشجویان)، فیلترینگ محتوا. |
