Deepfakes и роботы-домушники: криминальные опасности мира будущего
12.08.2020Исследователи из Университетского колледжа Лондона рассмотрели ряд опасностей, связанных с потенциальным применением искусственного интеллекта всевозможными злоумышленниками. Речь идет о периоде до 2035 года.
Как выяснилось, наибольшей угрозой может стать “инфокалипсис” и область deepfakes - видео фейков, “участники” которых убедительно говорят и делают то, чего в реальности они не делали. Эпидемия высококачественных подделок сделает “проверенные источники” архаизмом, спровоцирует всемирную эрозию доверия и изменит большинство подходов к работе с информацией. В частности, злоумышленники смогут с легкостью генерировать видео- и аудиоконтент, “герои” которого даже не будут знать о его существовании - подобные материалы могут использоваться для дискредитации и шантажа.
Упадок классической системы “ведущих” и группирующихся вокруг них “ведомых” патерналистов, в идеале, приведет к росту персональной ответственности и вовлеченности большинства членов общества в интересующие их процессы. Тем не менее, обилие разнородных подделок способно оказать непредсказуемое влияние на большинство привычных нам социальных взаимодействий.
Среди прочих угроз упоминались возможности использования злоумышленниками беспилотных автомобилей, телеуправляемых роботов-сталкеров и домушников, бесконечных потоков сгенерированных предвзятым искусственным интеллектом “новостей”, военных роботов и новых видов “интеллектуального” фишинга. Занятно, что английские исследователи сочли информационные преступления гораздо более опасными, чем использование злоумышленниками физических платформ-роботов.
Несмотря на предстоящие перемены, будущее несет массу поводов для оптимизма. В частности, интеллектуальный анализ архивов и всевозможных документов сулит массу возможностей для стремительного развития человечества: с поступлением исторических свидетельств в распоряжение ИИ, люди получат возможность делать выводы, анализировать историю и учиться на своих ошибках.
По материалам:
--