Поддержать команду Зеркала
Беларусы на войне
  1. Карпенков объяснил, почему дроны «иногда падают на территории Беларуси», — понятней не стало
  2. «У нас другого пути не было». Поговорили с экс-силовиком, который пересекался с генпрокурором Шведом и был ранен на протестах 2020-го
  3. У нового премьер-министра Турчина спросили, нужно ли менять подходы к экономике. Что он ответил
  4. Эксперты называют ложными публичные заявления Кремля о том, что Россия хочет мира, и приводят доказательства этому
  5. Лукашенко принял верительные грамоты от послов девяти стран. Кто в списке
  6. Лукашенко снял с должности Павла Каллаура, который руководил Нацбанком больше 10 лет, и назвал фамилию нового премьера
  7. Россия, «конечно, вторглась»: вице-президента США Вэнса возле дома заставили отвечать на вопросы об Украине
  8. Курс доллара оказался в узком коридоре: прогноз по валютам
  9. Стало известно, кто совершил масштабную кибератаку на X. Маск утверждал, что следы ведут в Украину
  10. КГК пожаловался Лукашенко на торговые сети, которые создают свои пекарни и конкурируют с хлебозаводами
  11. «Хоронили одни берцы». Почему погибший в Украине беларус пошел воевать на стороне России
  12. Столица России подверглась самой масштабной атаке беспилотников с начала войны
  13. «Короткая скамейка запасных». Спросили у экспертов, почему Лукашенко снял прежнего премьера Головченко и назначил Турчина новым
  14. Лукашенко заметил у одного из топ-чиновников «президентские склонности»


Глава SpaceX Илон Маск, соучредитель Apple Стив Возняк, профессор компьютерных наук Стюарт Рассел и еще около тысячи экспертов из сферы ИИ призвали приостановить обучение нейросетей более мощных, чем GPT-4, так как это может представлять угрозу для всего человечества. Об этом они заявили в открытом письме, которое опубликовано на сайте организации Future of Life Institute.

Фотография используется в качестве иллюстрации. Фото: pixabay.com
Фотография используется в качестве иллюстрации. Фото: pixabay.com

В письме говорится, что системы ИИ с человеко-конкурентным интеллектом могут нести серьезные риски для общества и человечества. В нем содержится призыв к лабораториям приостановить обучение на шесть месяцев.

«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а их риски будут управляемыми», — подчеркивают авторы письма.

В письме также указывается, что лаборатории и независимые эксперты должны использовать паузу в шесть месяцев для совместной разработки и внедрения набора общих протоколов, которые должны гарантировать безопасность.

Напомним, в конце января Microsoft объявила о многолетних и многомиллиардных инвестициях в лабораторию искусственного интеллекта (ИИ) OpenAI, которая среди прочего создала чат-бот ChatGPT. Microsoft не назвала конкретную сумму, но СМИ сообщали об объеме в 10 млрд долларов.

ChatGPT — это чат-бот, основанный на последней версии языковой модели GPT. Он был запущен в конце ноября 2022 года, а спустя всего неделю после запуска число его пользователей достигло 1 млн.

Такая популярность, по словам разработчиков, объясняется тем, что ChatGPT обучен «отвечать на последовательные вопросы, признавать свои ошибки, оспаривать некорректные вводные данные и отклонять неуместные вопросы».

В Сети можно найти много примеров использования ChatGPT: от составления резюме или инвестиционного портфеля до написания приветственного сообщения в приложении для знакомств или речи в Конгрессе США, от стихов до помощи в написании программного кода.