Поддержать команду Зеркала
Беларусы на войне
  1. Больше 30 жертв за 35 лет. Этот участок шоссе как магнит притягивал насильников и убийц — рассказываем историю «полей смерти»
  2. В Беларуси начнут выпускать дубайский шоколад. Из чего будут делать новые конфеты, рассказали на «Коммунарке»
  3. Генштаб ВСУ: Российская авиация ударила КАБом по интернату в Курской области, 95 мирных жителей под завалами
  4. К нам вернется зима? Каким будет февраль, рассказал синоптик Рябов
  5. Умер звезда КВН Валерий Хаит
  6. Нацбанк снова предупредил беларусов, что они могут подорвать финансовую стабильность и спровоцировать скачок цен. О чем речь
  7. Некоторых интернет-пользователей возмутила победа 11-классницы из Кобрина на областной олимпиаде по немецкому. Директор школы им ответил
  8. На Черном море изменится хозяин? Россия разработала новый метод борьбы с Украиной в морских водах — вот что она придумала
  9. Молдавского пророссийского блогера, который был на пресс-конференции Лукашенко, сняли с автобуса на беларусско-польской границе
  10. «Паліна на волі». Муж политзаключенной Шарендо-Панасюк сообщил об освобождении жены
  11. В ПДД все-таки собираются внести изменения. Они явно понравятся не всем — раньше вызывали споры
  12. Крутой рассказал об «огромном количестве» приглашений для Лукашенко посетить разные страны. Но он почему-то до сих пор не попал в Китай
  13. Желающих так много, что директора одного из крупнейших в стране театров искали 10 месяцев. Вот кого назначили


Глава SpaceX Илон Маск, соучредитель Apple Стив Возняк, профессор компьютерных наук Стюарт Рассел и еще около тысячи экспертов из сферы ИИ призвали приостановить обучение нейросетей более мощных, чем GPT-4, так как это может представлять угрозу для всего человечества. Об этом они заявили в открытом письме, которое опубликовано на сайте организации Future of Life Institute.

Фотография используется в качестве иллюстрации. Фото: pixabay.com
Фотография используется в качестве иллюстрации. Фото: pixabay.com

В письме говорится, что системы ИИ с человеко-конкурентным интеллектом могут нести серьезные риски для общества и человечества. В нем содержится призыв к лабораториям приостановить обучение на шесть месяцев.

«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а их риски будут управляемыми», — подчеркивают авторы письма.

В письме также указывается, что лаборатории и независимые эксперты должны использовать паузу в шесть месяцев для совместной разработки и внедрения набора общих протоколов, которые должны гарантировать безопасность.

Напомним, в конце января Microsoft объявила о многолетних и многомиллиардных инвестициях в лабораторию искусственного интеллекта (ИИ) OpenAI, которая среди прочего создала чат-бот ChatGPT. Microsoft не назвала конкретную сумму, но СМИ сообщали об объеме в 10 млрд долларов.

ChatGPT — это чат-бот, основанный на последней версии языковой модели GPT. Он был запущен в конце ноября 2022 года, а спустя всего неделю после запуска число его пользователей достигло 1 млн.

Такая популярность, по словам разработчиков, объясняется тем, что ChatGPT обучен «отвечать на последовательные вопросы, признавать свои ошибки, оспаривать некорректные вводные данные и отклонять неуместные вопросы».

В Сети можно найти много примеров использования ChatGPT: от составления резюме или инвестиционного портфеля до написания приветственного сообщения в приложении для знакомств или речи в Конгрессе США, от стихов до помощи в написании программного кода.