Есть ли причина для беспокойства? Что для нас искусственный интеллект: большие преимущества или непредсказуемые риски?
Об этом 4 августа расскажет на онлайн-встрече Нежметдинова Фарида, руководитель центра стратегического планирования и связи с общественностью, зав. Кафедрой философии и права Казанского ГАУ, федеральный эксперт-научно-технической сферы МНиВО РФ, член Международного общества клинической биоэтики, Почетный работник высшего профессионального образования Российской Федерации, Заслуженный работник высшего образования Республики Татарстан.
На встрече мы обсудим и рассмотрим различные точки зрения о том, какие риски несет развитие искусственного интеллекта и какие меры предосторожности необходимо принимать, чтобы избежать возможных катастроф.
Опасности, связанные с развитием ИИ, стали одними из самых обсуждаемых тем в наше время. Ведущие ученые и представители технологических компаний высказывают свои опасения, что ИИ может стать настоящей угрозой для человечества.
Совсем недавно известный визионер, глава Tesla и SpaceX Илон Маск заявил, что искусственный интеллект — самый большой риск, с которым сталкивается сегодня цивилизация. По его словам, роботы могут начать войну, просто выпуская фейковые новости и пресс-релизы, подделывая учетные записи электронной почты и манипулируя информацией. Поэтому в области разработки искусственного интеллекта необходимо жесткое государственное регулирование. Иначе человечество не заметит, как станет уже слишком поздно.
Ранее знаменитый британский физик-теоретик Стивен Хокинг включил вышедший из-под контроля искусственный разум в число трех наиболее вероятных причин грядущего апокалипсиса наряду с ядерной войной и созданными генетической инженерией вирусами. По мнению ученого, развитие искусственного интеллекта станет либо самым лучшим, либо самым худшим, что случалось с человечеством.
Согласно недавно опубликованному исследованию по методике знаменитого профессора психологии и политологии Филипа Тетлока о результатах оценки экзистенциальных рисков человечества среди которых - ядерные, ИИ, природная пандемия, пандемия сконструированного вируса, природная катастрофа - ИИ-риски, оцениваются как наивысшие.
Была ли информация полезна?