Компания OpenAI представила новую бесплатную модель, предназначенную для защиты конфиденциальности пользователей. Этот инструмент позволяет удалять из текста такие личные данные, как имена, адреса, пароли и номера счетов, прямо на вашем устройстве перед тем, как текст будет отправлен в ChatGPT.
Модель, получившая название Privacy Filter, работает локально на компьютере пользователя, что обеспечивает дополнительный уровень безопасности. Это особенно важно для тех, кто использует AI-чатботы для обработки конфиденциальной информации.
OpenAI заявляет, что новый инструмент поможет пользователям избежать утечки личных данных при взаимодействии с AI-системами. Это шаг в сторону повышения доверия к технологиям искусственного интеллекта.
Privacy Filter доступен как open-source проект, что позволяет разработчикам адаптировать и улучшать его под свои нужды. Это также способствует прозрачности и безопасности в использовании AI-технологий.
Что это значит
Для пользователей из России и СНГ этот инструмент может стать важным инструментом защиты личных данных при использовании ChatGPT и других AI-сервисов. Локальная обработка данных снижает риски утечки информации, что особенно актуально в условиях ужесточения регулирования в области защиты данных.
Комментарии
0