Skip to content

canberkdumann/Think_AI

Repository files navigation

Think AI: Otonom Akıl Yürütme Motoru

Python AI License

Think AI: Veri güvenliğini esas alan otonom akıl yürütme motoru. İki farklı LLM'in birbirini sürekli denetlediği bu mimari, en doğru sonucu üretirken verilerinizi tamamen yerel depolama (local storage) alanında izole eder.


Projenin Amacı

Standart dil modelleri, karmaşık mantık yürütme süreçlerinde hatalı bilgi üretmeye meyilli olabilir. Think AI, bu sorunu BinaryMind Mimarisi ile minimize etmeyi hedefler. Sistem, tek bir modelin çıktısını doğrudan kullanıcıya sunmak yerine, iki farklı modelin "tez-antitez" prensibiyle çalışmasını sağlar:

  1. Analist (Qwen 2.5): Veriyi toplar, internet kaynaklarını tarar ve bir çözüm önerisi sunar.
  2. Eleştirmen (Gemma 2): Sunulan çözümü mantıksal açıdan denetler, eksikleri tespit eder ve bir doğruluk payı belirler.
  3. Sentez: Kullanıcıya, bu iki modelin konsensüsü ile oluşturulmuş, rafine edilmiş sonuç sunulur.

Bu yaklaşım, özellikle teknik analiz, kod incelemesi ve araştırma gibi doğruluk gerektiren görevlerde daha güvenilir sonuçlar elde edilmesini sağlar.


Temel Özellikler

  • Multi-Agent Orkestrasyonu: Qwen ve Gemma modelleri asenkron olarak çalışır. Bir model üretirken diğeri denetleme mekanizması olarak görev yapar.
  • Canlı Güven Skoru: Modeller arasındaki anlaşmazlık veya uyum seviyesi, arayüz üzerinde dinamik bir bar ile görselleştirilir. Bu sayede yapay zekanın cevabına ne kadar güvendiğini şeffaf bir şekilde görebilirsiniz.
  • Real-Time RAG: DuckDuckGo entegrasyonu sayesinde modeller sadece eğitim verilerine bağlı kalmaz, güncel internet verilerini de analizlerine dahil eder.
  • Semantik Hafıza: Sistem, geçmiş konuşmaları vektör tabanlı olarak saklar ve bağlamı koruyarak daha tutarlı cevaplar üretir.
  • Profesyonel Raporlama: Analiz süreci ve sonuçları, kurumsal kullanıma uygun Markdown (.md) formatında rapor olarak dışa aktarılabilir.
  • Gizlilik Odaklı: Ollama altyapısı sayesinde tüm veriler ve işlem gücü yerel makinenizde kalır; buluta veri gönderilmez.

Kullanılan Teknolojiler

Proje, modern ve ölçeklenebilir bir teknoloji yığını üzerine inşa edilmiştir:

  • Core: Python 3.x, Asyncio (Asenkron Mimari)
  • LLM Runtime: Ollama (Localhost)
  • Modeller: Qwen 2.5 (Analist) & Gemma 2 (Eleştirmen)
  • Arayüz: Gradio
  • Arama & RAG: DuckDuckGo Search, Sentence Transformers, NumPy

think ai 1 think ai 2

Kurulum

Projeyi yerel makinenizde çalıştırmak için aşağıdaki adımları izleyin.

1. Gereksinimler

Sistemenizde Python ve Ollama kurulu olmalıdır.

2. Modellerin Hazırlanması

Terminal üzerinden projenin ihtiyaç duyduğu ajanları indirin:

ollama pull qwen2.5
ollama pull gemma2

git clone [https://github.com/KULLANICI_ADINIZ/ThinkAI.git](https://github.com/KULLANICI_ADINIZ/ThinkAI.git)
cd ThinkAI

pip install -r requirements.txt

python gradio_ui.py

Releases

No releases published

Packages

 
 
 

Contributors

Languages