ru
Назад к списку

Современный трейдинг без ИИ убыточен. Почему

07 Сентябрь 2018 18:16, UTC
Анна Жигалина, Екатерина Ланге

В предыдущем материале мы писали о передовых методах кибербезопасности, предвиденных и непредвиденных угрозах со стороны быстрорастущей киберпреступности. Но какова роль ИИ в этом процессе и с какими угрозами нам еще предстоит столкнуться?

ИИ в трейдинге

Искусственные нейронные сети уже стали самостоятельным игроком в мире данных. В трейдинге ИИ успешно используют не только крупные биржи, но также и частные игроки.

Команда ученых из Германии проанализировала с помощью самообучающихся нейронных сетей акции 500 ведущих компаний за период с 1992 по 2015. Результаты показали, что инвестиционные стратегии ИИ превысили доход стратегии долгосрочного планирования на 30%. Особенная точность проявилась при анализе акций в моменты кризисов, когда люди не могут принимать рациональные решения.

Специалисты часто замечают, что сейчас на биржах игра стала намного сложнее. Так как в сравнении с первичными биржевыми роботами нейронные сети анализируют не заранее заданный набор данных, а имитируют мыслительный процесс финансового аналитика, который сам собирает данные для отчета.

«В последнее время прибыльность упала и даже иногда бывала отрицательной. Мы полагаем, что этот спад был вызван растущим влиянием ИИ в современных торгах, увеличением вычислительных мощностей и популяризацией машинного обучения», — считает глава исследовательской группы доктор Кристофер КРАУСС.

ИИ на защите данных

Само собой, ИИ в недалеком будущем будет занимать ведущие позиции в защите данных в цифровом мире. Сегодня уже существует технология, которая анализирует процессы на промышленном объекте и предотвращает кибератаки на всех уровнях — от IT-систем до операционных процессов.

Радуясь всеобъемлющим возможностям ИИ, мы готовы предоставить ему все данные, которыми он сможет смело жонглировать, оберегая нас от любых киберугроз. Но что, если он сам станет угрозой нашей безопасности?

Как удержать ИИ в рамках

Пока никто из ученых не осмеливается давать точных прогнозов относительно потенциальной угрозы ИИ для безопасности людей. Однако по мере того, как мы «скармливаем» всем нейросетям тонны личной и корпоративной информации, внимание к этому вопросу обострилось.

Доказательством обеспокоенности ученых и разработчиков стала Асиломарская конференция в 2017 году, где были разработаны единые для всех исследователей принципы разработки ИИ. Они направлены на урегулирование развития исследований ИИ с целью «создания не бесцельного разума, но систем, направленных на принесение пользы человечеству».

Вопросу использования ИИ личных данных отводится отдельное место среди выведенных принципов: «Защита личных данных: люди должны иметь право на доступ к персональным данным, их обработку и контроль при наличии у систем ИИ возможности анализа и использования этих данных. Свобода и конфиденциальность: применение систем ИИ к персональным данным не должно безосновательно сокращать реальную или субъективно воспринимаемую свободу людей», — опубликовано в принципах, обнародованных по результатам Асиломарской конференции.

ИИ в руках киберпреступника

Электронные платежи и обмен данными — лакомый кусочек для злоумышленника и удобный инструмент в незаконных корпоративных войнах. Неудивительно, что киберпреступность вышла на уровень бизнеса.

Питер СКОТТ, футуролог и автор книг об ИИ, так комментирует для Bitnewstoday.ru возможные перспективы: «Поскольку ИИ становится все более коммерциализированным, он станет привычным инструментом в арсенале киберпреступников. К примеру, еще пять лет назад способность распознавать изображения и помечать их была новаторской технологией на уровне исследований, а сейчас доступна в базах с открытым исходным кодом, которые можно вызвать с помощью нескольких строк. Мы, безусловно, можем ожидать гонки вооружений между правоохранительными органами и преступниками, которые используют ИИ как инструмент для осуществления кибератак».

СКОТТ считает, что машинное обучение будет очевидным инструментом для хакеров в оптимизации попыток вторжения и распределенных атак отказа в системах обслуживания.

Фахад АЛРУВАИЛИ, профессор кибербезопасности из Саудовской Аравии, расcказал Bitnewstoday.ru:

«Кибербезопасность — одна из первоочередных задач ИИ, но есть некоторые ожидаемые и непредвиденные риски, когда дело доходит до возможностей ИИ, машинного обучения и глубокого обучения. Вот некоторые из предполагаемых рисков: фишинговые письма с поддержкой ИИ могут потенциально использовать машинное обучение для автоматической ориентации на жертв и использования их слабых мест.

Кроме того, киберпреступники могут потенциально взламывать и нарушать работу автономного транспорта, угрожая жизни тысяч, а, возможно, миллионов пассажиров».

Также профессор Фахад считает серьезным риском возможность военизации ИИ и создание роботов-убийц и беспилотного оружия, управляемого ИИ, настаивая на том, что эту моральную дилемму нужно решать на международном уровне.

Повышением осведомленности о риске развития милитаристского ИИ занимается в том числе некоммерческая организация Future of Life Institute, которая призывает всех исследователей, разработчиков и влиятельных лиц к сохранению принципов, утвержденных на Ассиломарской конференции.

Стивен ВЕЙСМАН, профессор колледжа университета Бентли, один из ведущих экспертов кибербезопасности США, в эксклюзивном интервью для Bitnewstoday.ru выразил свои опасения на этот счет: «В этом году 26 экспертов написали доклад «Злонамеренное использование искусственного интеллекта: прогнозирование, предотвращение и смягчение последствий», в котором они предупреждали о крайней опасности киберпреступников, эффективно использующих эту технологию. Это пугающая перспектива. Но будет ли сам ИИ угрозой в виде роботов, контролирующих кибербезопасность — я считаю, что это, скорее, вопрос научной фантастики, чем научный факт».  

Подробнее об аспектах использования ИИ как оружия и возникающей вследствие этого гонки вооружений мы расскажем в следующей статье.