Skip to content

Leo-Dev-2004/Team-project-Context-Translator-SS25

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

907 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

💡 Real-time Contextual Assistant

Project Header Banner

Ein KI-gestützter Desktop-Assistent, der in Echtzeit kontextbezogene Erklärungen während Live-Gesprächen liefert.


📋 Inhaltsverzeichnis

  1. 🌟 Über das Projekt
  2. 🛠️ Tech-Stack
  3. 🏛️ Architektur
  4. 🚀 Erste Schritte

🌟 Über das Projekt

Willkommen beim Real-time Contextual Assistant! Dieses Projekt ist eine eigenständige Desktop-Anwendung, die entwickelt wurde, um virtuelle Meetings, Vorlesungen und Präsentationen zu verbessern. Sie hört aktiv bei Gesprächen zu und liefert den Benutzern sofortige, kontextbezogene Informationen. Wenn beispielsweise ein komplexer Fachbegriff erwähnt wird, zeigt der Assistent sofort eine prägnante Erklärung an, sodass die Teilnehmer dem Gespräch ohne Unterbrechung folgen können.

Diese Echtzeitfähigkeit ist der Kern unserer Innovation und nutzt eine moderne, serviceorientierte Architektur, um Funktionen bereitzustellen, die selbst von führenden Plattformen noch nicht vollständig unterstützt werden.


🛠️ Tech-Stack

Unser System basiert auf einem modernen, asynchronen Stack, der für hochleistungsfähige Echtzeit-KI-Verarbeitung ausgelegt ist.

Kategorie Technologien
Frontend Electron.js Vite Lit
Backend Python FastAPI
KI & Sprache Ollama Faster Whisper
Echtzeit-Kommunikation WebSockets

🏛️ Architektur

Die Anwendung besteht aus einer Sammlung unabhängiger Dienste, die in Echtzeit kommunizieren. Dieses entkoppelte Design gewährleistet Stabilität und Skalierbarkeit.

Die Hauptkomponenten sind:

  1. System Runner: Ein Master-Skript, das alle anderen Dienste startet, überwacht und herunterfährt.
  2. STT-Modul: Ein dedizierter Prozess zur Erfassung von Mikrofon-Audio und zur Durchführung einer hochleistungsfähigen Speech-to-Text-Umwandlung.
  3. Backend (FastAPI): Der zentrale Hub, der Clients verwaltet, Nachrichten weiterleitet und die KI-Pipeline orchestriert.
  4. Frontend (Electron): Die benutzerseitige Desktop-Anwendung, die die Echtzeitinformationen anzeigt.

Für einen tiefen Einblick in unsere technische Implementierung lesen Sie bitte unser detailliertes Architektur-Dokument.


🚀 Erste Schritte

Befolgen Sie diese Schritte, um das Projekt lokal einzurichten und auszuführen.

Voraussetzungen

  • Python 3.10+
  • Node.js 18+ und npm
  • Ollama muss auf Ihrem lokalen Rechner installiert sein und laufen.
  • Wenn Sie Windows nutzen, müssen Sie die Entwicklermodus (Developer Mode) anschalten. Einstellungen > Erweitert > Entwicklermodus

Installation & Setup

  1. Repository klonen:

    git clone [https://github.com/your-repo/your-project.git](https://github.com/your-repo/your-project.git)
    cd your-project
  2. Backend einrichten (Python):

    # Eine virtuelle Umgebung erstellen und aktivieren
    python3 -m venv .venv
    source .venv/bin/activate
    
    # Python-Abhängigkeiten aus dem Stammverzeichnis installieren
    pip install -r requirements.txt
  3. Frontend einrichten (Node.js):

    # In das Frontend-Verzeichnis wechseln
    cd Frontend
    
    # Node.js-Abhängigkeiten installieren
    npm install
    cd .. 
  4. KI-Modell einrichten (Ollama): Laden Sie das erforderliche LLM herunter. Wir verwenden derzeit llama3.2.

    ollama pull llama3.2

Initial Install

Gehen Sie in das Verzeichnis initial_install. Falls Sie Windows benutzen: öffnen Sie bitte die

```bash
windows-initial-install.bat
```

Datei in Visual Studio Code.

Falls Sie Linux verwenden: öffnen Sie bitte ein Terminal und führen Sie folgende Anweisung aus: bash chmod +x linux-initial-setup.sh && ./linux-initial-setup.sh

Das Skript wird nach erfolgreichem Installationsvorgang das System starten. (durch Glockenton erkennbar)
Fortan, wenn Sie die Anwendung starten wollen, funktioniert das wie folgt:

Anwendung starten

Starten Sie das gesamte System mit dem Haupt-Runner-Skript aus dem Stammverzeichnis des Projekts:

python SystemRunner.py

Das Skript startet das Backend, das STT-Modul und die Electron-Anwendung.

About

No description, website, or topics provided.

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

 
 
 

Contributors