Серьезные опасения научного сообщества в связи с созданием нового вируса

Фото с сайта pixabay.com
Революционное открытие вызвало серьезные дискуссии о безопасности. Системный биолог Дмитрий Чебанов из онкологического центра имени Слоуна-Кеттеринга предупреждает: "Опыт показывает, что мы как человечество и естественные вирусы не очень-то можем контролировать. И поэтому с искусственным такая же история".
Аспирантка ИТМО Анастасия Орлова указывает на фундаментальную проблему: результат работы ИИ полностью зависит от обучающих данных. "Если в исходных данных присутствует много опасных соединений, искусственный интеллект будет генерировать опасные соединения", - объясняет она. Несмотря на то, что разработчики исключили информацию о патогенах, опасных для человека, они сами не исключают потенциальных рисков.
Подполковник армии США в отставке Эрл Расмуссен поднимает вопрос о возможности неконтролируемого распространения: "Потенциально можно создать очень смертоносные ситуации, типа биологической войны, с которыми будет сложно справиться и которые сложно контролировать". Особую тревогу вызывает возможность злонамеренного использования технологии обычными пользователями для создания смертоносных микроорганизмов.
Член совета фонда "Онкологика" Михаил Генис проводит параллель с любым инструментом: "Это точно так же, как автомобиль или молоток - зависит от того, как его использовать". Однако масштаб потенциальных последствий требует особых мер предосторожности.
Профессор Анча Баранова из университета Джорджа Мейсона предлагает практическое решение: создание вирусов со встроенными "выключателями". "Можно сделать такой вирус, который очень легко контролировать, чтобы у него был отключатель. Например, даешь аспирин, и вирус выключается", - объясняет она. Однако эксперты признают, что с тем же успехом можно создать и "включатели", что открывает возможности для программирования вирусов на атаку определенных целей.
Исследователи в Стэнфорде подчеркивают необходимость строгого контроля, соблюдения этических норм и создания международных правил, которые определят границы допустимых экспериментов. Создание вирусов искусственным интеллектом - это событие, которое действительно изменит правила игры, но требует ответственного подхода к регулированию и контролю за развитием технологии.
Таким образом, человечество стоит на пороге новой эры, где искусственный интеллект может создавать живые организмы. Это открывает невероятные возможности для медицины и фармацевтики, но одновременно требует беспрецедентного уровня осторожности и международного сотрудничества в вопросах безопасности, сообщает 5 канал.