Нами была успешно развёрнута модель на StreamLit. В данный момент она доступна по данному адресу.
Она находится в докерконтейнере, который подключен в Yandex.Cloud.
Модель способна определить является ли высказывание токсичным. Она показывает два параметра: вывод (toxic\neutral) и уверенность модели.
Нами был так же написан не только StreamLit, но и fastAPI. Были добавлены тесты, которые определяют отвечает ли нам модель в целом, но так же проверяют корректность её работы, отправляя заведо токсичный и заведомо не токсичный варианты на наш сайт (который в контейнере).
