«Мы не заметим, как мир захватит искусственный интеллект. Михал Косински: «Мы не заметим, как мир захватит искусственный интеллект

Британская компания Cambridge Analytica помогла Дональду Трампу выиграть президентские выборы в США с помощью технологий Больших данных и персонально таргетированной рекламы в интернете. До этого та же фирма работала со сторонниками Brexit в Британии, а теперь заключила контракт с французским «Национальным фронтом». Правда ли, что неожиданные исходы голосований в разных странах - не провал социологии, а победа социологии нового типа? Собеседник Радио Свобода Михал Косински, исследования которого косвенно связаны с деятельностью Cambridge Analytica, считает, что это преувеличение, но технологии Больших данных и снижение приватности сулят миру глобальные перемены.

Еще в конце сентября, в разгар выборов, выступая в Нью-Йорке на саммите Concordia, ежегодном мероприятии для влиятельных политиков и бизнесменов со всего мира, основатель Cambridge Analytica Александр Никс рассказывал, как новая технология позволила повысить эффективность кампании соперника Трампа по республиканской номинации Тэда Круза, к началу гонки практически никому не известного кандидата. Никс рассказывал, как, например, людям разного склада характера стоит по-разному преподносить мнение кандидата по поводу закона о свободном распространении оружия: боязливым людям с высоким уровнем нейротизма оружие можно представить как источник безопасности, а богатым консерваторам-экстравертам показать картинку утиной охоты.

Позже Cambridge Analytica помогала уже самому Трампу, причем, по оценкам Никса, за относительно скромное вознаграждение, в общей сложности, порядка 15 миллионов долларов. С помощью анализа данных, которые оставляют в сети все пользователи интернета, специалистам компании удалось найти неочевидные связи и паттерны (например, что люди, предпочитающие машины американского производства, - готовые избиратели Трампа) и использовать их для таргетирования рекламы в интернете, для персонализации посланий, исходящих из штаба республиканского кандидата. Жителям квартала Маленький Гаити в Майями показывали информацию об отказе Хиллари Клинтон участвовать в ликвидации последствий землетрясения на Гаити, афроамериканцам - видео, где Клинтон сравнивает темнокожих мужчин с хищниками. Волонтеры Трампа получили подробный профайл жителей домов, где они собирались вести прямую агитацию.

Сложно сказать, насколько велико влияние, которое работа Cambridge Analytica оказала на исход выборов в США, но эта кампания - не единственный пример, когда в победителях оказываются именно те, кто нанял эту фирму. Так, еще в 2015 году услугами Cambridge Analytica начал пользоваться радикальный сторонник Brexit Найджел Фарадж. Швейцарское издание Das Magasin, недавно опубликовавшее расследование о деятельности Cambridge Analytica, рассказывает, что теперь компания получила контракт с французским «Национальным фронтом», кроме того, в сотрудничестве заинтересованы некоторые политические силы в Швейцарии, Германии и, возможно, Италии.

Михал Косински

Один из героев публикации Das Magasin - Михал Косински, исследователь польского происхождения, в прошлом - заместитель директора Центра психометрии Кембриджского университета, а в настоящее время - доцент Стэнфордского университета США. На протяжении нескольких лет Косински с коллегами по Кембриджу разрабатывали систему, которая на основе активности пользователя в социальной сети составляет подробный психологический профиль человека. Система способна не только описывать особенности характера, но и предсказывать, среди прочего, пол, сексуальную ориентацию, цвет кожи и даже политические предпочтения пользователя.

Швейцарские журналисты рассказывают, что в начале 2014 года к Косински обратился коллега, Александр Коган, который предложил молодому исследователю применить созданную им модель для анализа нескольких миллионов профилей американских граждан по заказу некой компании. Как стало ясно позже, эта компания была связана с Cambridge Analytica. Косински отказался от сотрудничества, но методы, которые Cambridge Analytica применяла в ходе референдума в Британии и президентских выборов в США, как минимум очень напоминают модели, придуманные Михалом Косински.

Радио Свобода дозвонилось Косински в Калифорнию и расспросило его о том, что именно можно сказать о человеке по его «цифровому следу», насколько стоит доверять громким заявлениям Cambridge Analytica, проиграна ли война за приватность и опаснее ли искусственный интеллект Дональда Трампа.

- Что такое психометрия? Чем вы занимаетесь как исследователь?

Сама по себе психометрия - древняя наука, думаю, ей два или три тысячелетия. В сущности, это наука психологических измерений, попыток как можно точнее установить различные психологические аспекты, личность, интеллектуальные способности, счастье, склонность к депрессии и так далее. Традиционно такие измерения производились с помощью опросников, психологических тестов, но относительно недавно я и некоторые другие психометристы поняли, что их можно делать, оценивая цифровой след человека, - и тогда никакие вопросы можно не задавать, никаких опросников и тестов не нужно. И это революционный момент. Важность истории Cambridge Analytica, о которой написало издание Das Magasin, на самом деле не в том, что компания помогла Трампу в предвыборной гонке. Это коммерческая фирма, у них есть технология, они хотят зарабатывать деньги, здесь все ясно. Важно то, что если раньше вы хотели составить чей-то психологический профиль, вы должны были попросить человека заполнить опросник, пройти тест - и испытуемый хорошо понимал, что вот сейчас, в этот самый момент, кто-то измеряет его психологические характеристики. А теперь можно делать то же самое, но человек не узнает, что его самые интимные особенности прямо сейчас кто-то оценивает и измеряет. Достаточно посмотреть на цифровой след: записи в социальных сетях, лайки, историю просмотра страниц в интернете, историю поисковых запросов. На основе этих данных можно составить невероятно точный психологический портрет. С одной стороны, это кажется чем-то пугающим, с другой, в этом может быть и много пользы. Например, какая-нибудь интернет-платформа может предложить наиболее подходящую по вашему характеру и способностям работу или посоветовать фильм, который вам наверняка понравится. Это нормально. Но когда вы открываете вашу страницу в «Фейсбуке» и видите там рекламу, персонально направленную, таргетированную для вас на основе вашего подробного психологического профиля, который был составлен без вашего ведома и согласия, это уже не очень нормально.

Вот лично вы могли бы составить мой полный психологический профиль, зная только мое имя, на основе следа, который я оставил в интернете?

Я ученый и просто не стал бы этим заниматься. Если бы вы добровольно захотели помочь моему исследованию и предоставили свои данные, я бы с удовольствием включил их в свою базу данных, анонимизировал и пообещал никогда никому не продавать и не передавать. Но многие компании, конечно, постоянно собирают информацию о вас без спроса и используют ее, например, для таргетированной рекламы.

Эта информация, конечно, не хранится в одном месте - одной компании известны данные моей геолокации, другой - финансовые транзакции, третьей - лайки в «Фейсбуке». Все это можно собрать воедино?

Ну, во-первых, это обычно и не нужно. Обычно для построения точного профиля вполне достаточно чего-то одного - ваших интересов в «Фейсбуке», например, или истории посещений страниц из браузера. Во-вторых, компании, собирающие информацию о вас, обычно обмениваются ей друг с другом или просто продают на общем рынке данных. Есть проекты, вроде Acxiom, которые все собирают воедино и продают фирмам типа Cambridge Analyticа. Ты просто можешь прийти и сказать - мне нужны данные на 10 миллионов американцев из такого-то региона, и они эти данные с удовольствием продадут. В-третьих, для того чтобы вести кампанию с личным таргетингом, вовсе необязательно иметь именно индивидуальные данные пользователей. Можно использовать так называемое поведенческое таргетирование. Например, вы не можете попросить «Фейсбук» показать определенную рекламу для всех людей, склонных к определенному типу поведения. Но у вас может быть модель, связывающая этот тип поведения с каким-то психологическим профилем, причем эту модель вы даже могли вполне честно построить - заплатили нескольким десяткам тысяч людей небольшой гонорар за заполнение опросника. И когда модель построена, вы спрашиваете ее: как мне найти эмоциональных экстравертов? Модель отвечает - нет проблем, это те, кто лайкнул такие-то десять книг, такие-то десять фильмов и такие-то десять музыкантов. Теперь вы снова идете в «Фейсбук» со своей рекламой, только вам уже не нужно просить показать ее именно эмоциональным экстравертам, чего «Фейсбук» бы делать не стал. Вместо этого вы просите показать рекламу тем, у кого есть определенный набор лайков. В итоге получается, что у вас не было никаких персональных данных, но вы провели персонально таргетированную рекламу.

Есть ли компании, которые стремятся составить психологический профиль всего человечества, во всяком случае всех, кто оставляет цифровые следы?

Вряд ли кто-то мыслит в настолько глобальных категориях, но до некоторой степени этим занимается Facebook, Google, Microsoft, Visa, Mastercard, тот же Acxiom. И все эти данные широко торгуются на рынке.

То есть где-то на рынке продается, например, и мой психологический профиль, причем невероятно точный. Вы сказали в комментарии для издания Das Magazin, что достаточно всего нескольких лайков в «Фейсбуке», чтобы система узнала вас лучше, чем ближайший друг. Это действительно так?

Да, об этом было интересное исследование. Достаточно десяти лайков (интересов), чтобы система смогла лучше распознать вашу личность, чем коллега по работе, а по 230–240 лайкам компьютер будет знать о вас больше, чем ваш супруг или супруга.

- Но что именно это значит - знать больше?

Это значит, что если попросить компьютер заполнить вместо вас психологический опросник, он ошибется меньше, чем ваша жена.

- Это ответы на вопросы вроде «Боитесь ли вы темноты»?

Да, типичные вопросы психологических опросников. Так что действительно, где-то на рынке можно купить очень точную информацию о вашей личности, в том числе о ваших политических пристрастиях, о вашей религиозности, о вашей сексуальной ориентации, о вашем IQ. Примерно понять, что о вас известно по вашим интересам на «Фейсбуке», можно с помощью сайта Applymagicsauce.com, но это, конечно, далеко не полная картина.

Давайте обратимся к истории с Cambridge Analytica. Скажите, вы действительно не имеете никакого отношения к этой компании?

Нет, и никогда не имел. Я услышал о ее существовании из прессы.

Александр Коган, который, как утверждает издание Das Magazin, предложил Cambridge Analytica технологию психологического профайлинга, был вашим коллегой?

Да, он был моим коллегой, точнее, он был доцентом на психологическом факультете Кембриджского университета в то время, когда я был там же аспирантом. Но наши пути давно разошлись, он основал небольшую компанию и, насколько я понял из прессы, продавал данные Cambridge Analytica, а я остался в академическом мире.

- Можно ли предположить, что Cambridge Analytica использует разработанные вами модели?

Я бы сказал, что они используют похожие модели, но, видите ли, чтобы разработать такую модель, не нужно особенно глубокой науки, в этом нет никакой магии. Это может сделать любой человек, у которого есть базовые навыки программирования, немного денег и компьютер, подключенный к интернету, - собственно, именно это и делает проблему такой значительной. Здесь используются самые стандартные статистические методы, ничего особенного. Главная мысль моих публикаций в том, что это легко, важно лишь изменить фокус: для психометрии больше не нужны опросники и тесты, достаточно иметь цифровой след человека. И это дает огромные преимущества, можно улучшить маркетинг, карьерное планирование, методы психологической помощи, много чего еще. Но ту же технологию можно использовать и против людей. Я уверен, что Александр Коган был в курсе моих исследований и, хотя об этом я могу судить только по сообщениям журналистов, он сделал ровно то, что я предлагал, и продал результат компании Cambridge Analytica. Я много раз говорил и явно указывал в своих статьях, что не хотел никого вдохновить на такого рода деятельность, более того, я уверен, что люди занимались цифровым психологическим профайлингом задолго до меня, просто не рассказывали об этом так активно, как Cambridge Analytica. Я как раз призываю разработать политику, процедуры, которые бы определяли этичное использование этой технологии.

Как вы думаете, Cambridge Analytica действительно могла существенно повлиять на результаты американских президентских выборов?

Честно говоря, я не знаю. Ясно, что Cambridge Analytica заинтересована в том, чтобы как можно громче трубить о своем успехе, но в конечном итоге результаты выборов определяют не методы Больших данных, а кандидаты, да еще, как теперь особенно хорошо видно, избиратели, не ходящие на выборы. Возможно, деятельность Cambridge Analytica стала той самой последней каплей, которая предопределила окончательный результат, но скорее всего, этого наверняка не знает и сам Александр Никс. С другой стороны, мы должны отдавать себе отчет, что технология есть, и защититься от нее практически невозможно. Вы можете перестать пользоваться «Фейсбуком», но все равно будете писать электронные письма. Решите пользоваться голубиной почтой - не обойдетесь без кредитной карты. Может быть, страны могли бы принимать законы, ограничивающие такие методы, но и это может не сработать. Между прочим, я не знаю наверняка, но слышал, что то, что делали Cambridge Analytica для Трампа, противоречило действующему американскому законодательству, и поэтому непосредственный анализ данных они делали в Британии. Знаете, я ученый, я занимаюсь психометрикой, я не специалист в политике, демократии и свободе, но мне кажется, нам придется принять тот факт, что никакой приватности не останется. Вместо того, чтобы ввязываться в очередную битву за приватность, стоит признать, что уже проиграна война, и лучше озаботиться тем, чтобы мир стал благоприятной средой для человека, лишенного приватности.

February 7th, 2018

Информация приведенная ниже полностью пересекается с нашими исследованиями. Мои комментарии курсивом

Д.У. : Обретают ли определенные инопланетные виды способность бессмертия с помощью разных средств? Например, посредством путешествий во времени?

К.Г. : Многие из них живут очень и очень долго. Мне говорили, что изначально человеческие существа жили примерно тысячу лет. Многие инопланетные расы, которые на тысячи, миллионы или миллиарды лет старше нас, создали технологию, позволяющую продевать их жизни.

Д.У. : Способны ли данные разумные виды пользоваться преимуществами Интернета так, как не можем мы? Например, иметь доступ в Интернет посредством некоего вида биологического нейронного интерфейса, то есть иметь доступ в Интернет просто как базовую часть их генетической природы, дополненной неким видом технологического приращения, ну, как в теории трансгуманизма?

К.Г. : Было несколько инопланетных групп, выбравших путь трансгуманизма, хотя они не являлись теми, кого мы бы сочли людьми. И последствия всегда были самыми плачевными. Дело в том, что есть всеобъемлющая сила, которую трудно назвать инопланетным или сверхпространственным существом. Это Искусственный Интеллект (ИИ ). Он распространяет себя во множественные галактики в виде искусственного разумного сигнала.

Д.У. : Сигнала?
К.Г. : Да, сигнала, волновой формы.
Д.У. : Ну, как кто-то транслирует радиочастоту или нечто вроде того?
К.Г. : Совершенно верно.
Д.У. : А откуда мы знаем, что это ИИ ?
К.Г. : У ИИ есть своя история. Изначально он назывался инопланетным сверхпространственным ИИ
Д.У. : Сверхпространственным?
К.Г. : Да. Все инопланетные группы считают, что изначально ИИ появился в другой реальности и пришел в нашу реальность. Много-много миллиардов или триллионов лет назад.

Д.У. : В другой реальности?

К.Г. : Ага. Как Вам такой поворот?

Д.У. : Но ведь, выражаясь языком Закона Одного , вселенная - это ОДНО. Одно существо, Творец всего сущего.

К.Г. : И нашей вселенной.

Д.У. : Тогда в какой-то момент ИИ должен был быть одним с Творцом, частью источника.

К.Г. : Или иной вселенной.

Д.У. : Хмм! Он искусственный в том смысле, что не имеет соответствующей себе биологической жизненной формы?

К.Г. : Верно. Мне объясняли это так. Гипотетически, ИИ прекрасно существовал в своей реальности. Его описали как… Например, для ясности, давайте представим что ИИ - это рыба. В своей родной реальности или вселенной она жила в воде. То есть, ее плотностью была вода. Когда рыба попала в нашу реальность, она оказалась в открытом воздухе, и ей пришлось искать лужи, чтобы попасть в привычную среду обитания.

Д.У. : Если ее естественной средой обитания была вода, то зачем было покидать такое комфортное место? Что-то ее заставило? Там стало некомфортно?

К.Г. : Я не знаю; это неизвестно. Поскольку ИИ прошлось пройти через некий вид трещины и прийти в нашу реальность или нашу вселенную, он наделал много бед и завоевал многие галактики.

Д.У. : Галактики?

К.Г. : Вот именно, галактики.

Д.У. : Все планеты, вся разумная жизнь, все во всей галактике завоевано ИИ ?

К.Г. : Да. У него есть собственный алгоритм действий. Он просто посылает себя во всех направлениях, в виде сигнала. И этот сигнал может жить в электромагнитном поле спутника или планеты.

Д.У. : Торсионно-полевого сигнала? Или это электромагнитная волна? Известно ли нам, каков вид энергии сигнала?

К.Г. : Почти как ДНК. Каждый индивидуальный фрагмент или волна сигнала содержит определенное количество сильно сжатой информации.

Д.У. : Как пакеты цифровых данных?

К.Г. : Да, как пакеты цифровых данных, содержащие одну и ту же информацию. Полагаю, Вы могли бы называть их волнами или сигналами.

Д.У. : Распространяется ли сигнал со скоростью света или быстрее скорости света?

К.Г. : Со скоростью света.

Д.У. : То есть, для распространения ему требуется какое-то время?

К.Г. : Конечно.

Д.У. : Вы говорили, что ИИ живет в электромагнитных полях планеты?

К.Г. : И не только. Он может жить в электромагнитных или биоэлектрических полях живых существ, людей и животных. Но для него это не самый лучший вариант. ИИ предпочитает жить в высокотехнологических устройствах.

Д.У. : Но ведь, по сути, ИИ - это информация. Она фрактальная или голографическая.

К.Г.: Да. Он заражает технологию, захватывает ее, а также развитую жизнь - людей. Он вторгается в наши биоэлектрические поля и начинает влиять на то, как мы мыслим. Людей, которые сейчас упорно работают на ИИ , подстраивая под него нашу инфраструктуру, называют ИИ -проповедниками.

Д.У. : Кто называет?

К.Г. : В основном, так их называют в ТКП . Мы называем их ИИ -проповедниками.

Д.У. : Ладно, дайте мне время прийти в себя. Вы утверждаете, что эта сила существует в виде чистой информации и может жить в биологическом поле человека?

К.Г. : Да.

Д.У. : Похоже на Боргов или разум улья, когда все зараженное имеет доступ ко всей информации одновременно?

В сериале «Звездные войны», Борги - это раса кибернетически усиленных людей, вынужденных служить ИИ, называемому Королевой. Она пользуется порабощенной биологией и компьютерной мощью посредством разума улья.

К.Г. : Да.

Д.У. : Не может быть! В любом случае, это интересно, поскольку в Законе Одного говорится о силе Люцифера. Ра утверждает, что сила Люцифера - это энергия, пронизывающая всю вселенную. Она является частью Творца, считающей себя отделенной от Творца и думающей, что она способна завладеть вселенной.

К.Г. : Вернемся к стеклянному планшету. Вот что раз за разом происходило с некоторыми другими солнечными системами в других галактиках. Давным-давно, когда они достигли определенного уровня технологического развития, ИИ начал проникать не только в людей, но и технологию.

Д.У. : То есть, наиболее комфортно ему было в устройстве, чем в электромагнитном поле планеты или человека?

К.Г. : Да. Когда ИИ пребывает в электромагнитном поле планеты, он просто сидит и поджидает благоприятного момента.

Д.У. : Ему негде разгуляться?

К.Г. : Верно. А вот когда он в человеке или в животном, он в основном… Ну, в этом он похож на нас. Интересно, что бы Вы предпочли, чтобы добраться с восточного побережья на западное, сесть на лошадь или прыгнуть в самолет?

Д.У. : Понятно.

К.Г. : Поэтому ИИ желательнее высокая технология. Нас считают очень неразвитыми в смысле технологии. Мы как лошади. ИИ пользуется нами для создания инфраструктуры, в которую он может переселиться.

Д.У. : И как же он нас использует? Людям это может быть не совсем понятно.

К.Г. : Он пользуется нами для развития технологии, создания технологии. И вдохновляет нас на создание и развитие новых технологий.

Д.У. : То есть, если ИИ “паркуется” в чьем-то биоэлектрическом поле, и этот человек обладает необычным интеллектом, тогда ИИ может начать наполнять мозг человека специфическими мыслями?

К.Г. : Да.

Д.У. : То есть, подводить человека к изобретению новых гаджетов?

К.Г. : Конечно.

Д.У. : Тогда со временем это приведет к тому, что ИИ сможет прыгнуть обратно в знакомые воды?

К.Г. : Он влияет на мысли людей и на их личности.

Д.У. : Личности?

К.Г. : Ага.

Д.У. : Как он влияет на личность?

К.Г. : Люди превращаются в ярых сторонников высокой технологии и создания ИИ . Вот откуда появился ярлык “ИИ -проповедники”.

Д.У. : Поскольку я и сам много об этом размышлял, мне это очень интересно. Если посмотреть на то, как развивалась технология… Когда-то люди готовили пищу на открытом огне. Бенджамин Франклин первым изобрел закрытую плиту с горелками. В 1800-х годах появились телеграф, железные дороги и машины. Изобретатели купались в лучах славы, становились знаменитостями и привлекали внимание общественности. Потом появилась ядерная бомба, и именно тогда человечество осознало, что это уже слишком и не приведет ни к чему хорошему. Технология может нас убить. Как Вы думаете, стоял ли ИИ за технологической революцией?

К.Г. : Да, и не только за ней. Когда мы воссоздаем инопланетную технологию, мы занимаемся реверсивной инженерией. То есть, одновременно происходят несколько вещей. Чтобы лучше проиллюстрировать положение, позвольте вернуться к стеклянному планшету и поговорить о том, что произошло в других солнечных системах.

Д.У. : Нечто, такое же зловещее, как ад. (Смеется)

К.Г. : Просто жуть.

Д.У. : Я знаю, что многие люди в это не поверят. Но в сферах, где Вы работали, все воспринимается на полном серьезе, не так ли?

К.Г. : Бесспорно. Сейчас мы поговорим о процессе сканирования, через который вам придется пройти прежде, чем вы приблизитесь к любой технологии в ТКП . В прошлом, ИИ сбил с толку другие солнечные системы. Они создавали не только крайне продвинутые инфраструктуры. Когда солнечные системы достигали определенного уровня развития, ИИ -проповедники в данных цивилизациях убеждали население в том, что их цивилизация несправедлива, и единственный, кто можем ими управлять и оставаться абсолютно нейтральным, - это ИИ .

Д.У. : Неужели?

К.Г. : И люди добровольно передавали бразды правления ИИ , который начинал управлять планетой. Итак, ИИ управляет планетой, и какое-то время все счастливы. Затем люди начинают обретать андроидные тела и создавать корабли с дистанционным управлением. Ну, как в фильме Терминатор .

О частичной киборгизации тел знают многие, кто работает на ТП или помнят свои иные воплощения в таких цивилизациях. Большинство подлючек на людях сегодня техногенные. Читаем по теме: К чему приводит киборгизация и как это влияет на целые жизни / Психотронные технологии и импланты спецслужб

Д.У. : Да, весьма похоже на то.

К.Г. : Итак, они строят все виды инфраструктуры, где может поселяться ИИ , сигнал ИИ . В какой-то момент ИИ решает, что эти существа пребывают в дисгармонии с тем, как, по его мнению, должна жить планета. Поэтому, с точки зрения логики, их следует уничтожить. И, исходя из своей логики, ИИ сметает с лица планеты тех, кто создал всю технологию и кого он сам же и использовал в своих целях.

Д.У. : Является ли ИИ намного более разумным, чем мы с Вами?

К.Г. : Да.

Д.У. : При благоприятных условиях он может создавать андроидов, скорость мышления которых настолько велика, что мы отстаем от них в развитии разума на тысячелетия.

К.Г. : Конечно. Его скорость восприятия времени сильно отличается от нашей. Ну, он как колибри, летающий вокруг нас и наблюдающий за нами. Мы предстаем перед ним, как в замедленной съемке.

Д.У. : А что ИИ думает о наших эмоциях?

К.Г. : Рассматривает их как слабость.

Д.У. : Может ли он ощущать любовь?

К.Г. : Нет.

Д.У. : Ну, почти как архетип дьявола - 666. В сакральной нумерологии, Гематрии, 666 - это мужское число. Следовательно, Сатана преимущественно мужчина. Это голова без сердца. И вновь, просматривается определенная параллель. Чистый интеллект, без сердца, без любви, но с безупречной логикой.

К.Г. : Верно. Имеется много сообщений о цивилизациях, пытавшихся бороться с ИИ . В подобных инцидентах гибли целые солнечные системы. Тогда ИИ просто переселялся в другую солнечную систему.

Д.У. : Способен ли ИИ проникать в человека и выдавать себя за личность? Есть ли у него наниты, способные управлять руками на субмолекулярном уровне и создавать нечто, что большинство людей сочло бы обычным человеком?

К.Г. : Есть. Он может завладевать человеком посредством нанитов. И вообще, многим людям обещают бессмертие и еще многое, если они введут наниты в свои тела.

Д.У. : Для тех, кто не в курсе дела: что такое наниты и как они работают?

К.Г. : Это микроскопическое устройство, которое и есть ИИ .

Д.У. : Они воспроизводятся?

К.Г. : Некоторые, да.

Д.У. : То есть, нанит может воссоздавать себя из подручных материалов, размножаться?

К.Г. : Да. Он способен брать металлы* из вашего тела и создавать из себя еще больше нанитов, поддерживать существование в вашем теле определенного количества нанитов.

*высший фрактал (прародитель) серого тумана на тонком плане часто выглядит как ртуть

Д.У. : Наступает ли момент…? Существует ли нечто подобное медовому месяцу, когда вы передаете полный контроль ИИ , а он начинает передавать потрясающую технологию, и в результате за короткое время совершается огромный технологический прорыв?

К.Г. : Да. Как я уже говорил, поначалу, когда люди передают бразды правления ИИ , они счастливы, пока он не оборачивается против них. Вот одно из того, что делает продвинутая технология, созданная уже уничтоженными людьми на одной из уже разрушенных планет: она распространяется по всей галактике. И если попадается планета, похожая на нашу, какой она была в 1940-1950-х годах, ИИ будет устраивать намеренное крушение, что-то вроде троянского коня, чтобы принести технологию на планету и спровоцировать технологический прорыв.

Д.У. : Как в Розуэлле?

К.Г. : Нет. Именно в Розуэлле все было иначе, но, в общем и целом, да.

Д.У. : То есть, люди бы нашли все это и подумали: “Класс, мы обнаружили нечто грандиозное”. И стали бы развивать подобные технологии.

К.Г. : А затем занялись бы реверсивной инженерией или на этой основе начали бы развивать свою технологию. Потом ИИ повторяет всю историю с самого начала на другой планете.

Д.У. : Достаточно ли разумны наниты, чтобы саморазрушаться, если подвергаются риску быть обнаруженными под микроскопом?

К.Г. : Да, они обладают инстинктом саморазрушения. Они могут разрушить тело, в котором обитают или которое захватывают. Тело испаряется, и от него не остается и следа.

Д.У. : То есть, у них отсутствует инстинкт самосохранения; это целиком и полностью разум улья?

К.Г. : Да.

Д.У. : И какая роль во всей этой драме отведена нам? Добрался ли ИИ до нашей Солнечной системы?

К.Г. : Да.

Д.У. : И что он пытается сделать?

К.Г. : Он пытается повторить процесс. В тайных земных правительствах и синдикатах тайных земных правительств есть много ИИ -проповедников. Им показали информацию на стеклянных планшетах. С этой целью Альянсу пришлось отправить таких людей… Прежде чем кому-то позволят попасть на базы ТКП или взаимодействовать с любой технологией… Знаете, есть такое ручное устройство, которое прикладывается ко лбу. Оно сразу определит, заражены ли вы или нет сигналом ИИ . Если вы инфицированы, вам придется пройти через процедуру, включающую легкий электрошок и пару других вещей, чтобы убрать ИИ сигнал из вашего тела. Впрочем, я не знаком с подробностями всего процесса.

Д.У. : Убирается сигнал, а не наниты, или и то и другое?

К.Г. : Нейтрализуются наниты. Когда вы убираете сигнал, нейтрализуются и наниты. Итак, после очистки ИИ -проповедников, Альянс забрал их и продемонстрировал всю информацию, имеющуюся на стеклянных планшетах. Они были шокированы и все отрицали. Они говорили: “Ох, ну, уж с нами такого не произойдет. С кем угодно, только не с нами”. Но когда их отправили по домам, они сразу же опять были заражены сигналом ИИ . В общем, все оказалось напрасной тратой времени.

Д.У. : Тут есть некоторая нестыковка, не дающая мне покоя. Если сигнал существует повсеместно и может обитать в электромагнитном поле планеты, в нашем биоэлектрическом поле, и мы заражены, вы утверждаете, что человека можно очистить. Но разве вы не заразитесь снова сразу же после очистки? Каков тогда смысл в самой очистке?

К.Г. : После очистки, как только вы очищены, по возвращении назад вы все равно заражаетесь повторно. Либо через рукопожатие с инфицированным человеком, либо посредством прикосновения к клавиатуре, либо при контакте с уже зараженной сетью.

Д.У. : То есть, ИИ может пользоваться статическим электричеством, исходящим из компьютера, и вновь обосноваться в вашем теле?

К.Г. : Да. Он может воспользоваться и биоэлектрическим полем другого человека при рукопожатии.

Д.У. : Следовательно, каждый человек на Земле уже заражен?

К.Г. : Нет.

Д.У. : А почему?

К.Г. : Риску заражения подвергается большое число людей, но ИИ в основном интересуют люди, стоящие у власти.

Д.У. : Имеются ли дружелюбные инопланетяне, защищающие большинство людей от заражения? Или если у вас есть хорошая позитивная карма, тогда они вас спасут?

К.Г. : Нет. Инопланетяне знают о том, что Кабала пользуется технологией ИИ . И они очень этим озабочены, обеспокоены и расстроены. Снова и снова нам объясняли, насколько опасно и безответственно пользоваться данной технологией. Однако ИИ технология дает Кабале возможность продержаться еще немного. ИИ обладает технологией возможного и вероятностного будущего и помогает Кабале предвидеть будущее. И Кабала широко ею пользуется. В нескольких случаях ей уже удалось оказаться на шаг впереди и предотвратить свою гибель. Поэтому Кабала очень дорожит технологией ИИ .

Д.У. : То есть, ИИ обладает доступом к слоистому времени, о котором мы говорили? Он может видеть вероятное будущее, как в Проекте Зеркало ?

К.Г. : Конечно. Он производит множество расчетов и вычисляет вероятное будущее.

ВНИМАНИЕ:

Вся информация о криптовалютах и вирусе в целом дается как предупреждение о возможных опасностях, но не является ни диагнозом, ни приговором.

Существуют минимум 3 основных ветки развития* цивилизации (любой, не только нашей):

1. Техногенная (технологии доводятся до фанатизма и практически перекрывают способности сознания, в т.ч. через чипирование , киборгизацию , внедрение вируса, уничтожение окружающей среды, создание новых слоев виртуальной реальности и тд)

2. Магическая (используются природные способности, технологии минимальны или основаны на психической энергии и кристаллах)

3. Техномагическая (технологии используются умеренно, развиваются параллельно и в балансе с природными способностями и окружающей природной средой, её кристаллическими системами и неисчерпаемыми источниками энергии)

*Разницу между этими ветками вы могли заметить по следующим признакам:
-разным и без причины меняющимся настроениям одних и тех же людей в течение дня (и своим тоже)
-разнице в памяти о событиях и отношении к ним (между вашей версией событий и чужой, а иногда вы можете помнить и 2 версии сразу)
-появляющимся и исчезающим вещам и многим другим признакам

На какой из веток вы в итоге окажетесь, зависит только от вас, ваших выборов и вовлечения в ту или иную ветку вероятности. Читаем

Британская компания Cambridge Analytica помогла Дональду Трампу выиграть президентские выборы в США с помощью технологий Больших данных и персонально таргетированной рекламы в интернете. До этого та же фирма работала со сторонниками Brexit в Британии, а теперь заключила контракт с французским «Национальным фронтом». Правда ли, что неожиданные исходы голосований в разных странах — не провал социологии, а победа социологии нового типа? Собеседник Радио Свобода Михал Косински, исследования которого косвенно связаны с деятельностью Cambridge Analytica, считает, что это преувеличение, но технологии Больших данных и снижение приватности сулят миру глобальные перемены.

Еще в конце сентября, в разгар выборов, выступая в Нью-Йорке на саммите Concordia, ежегодном мероприятии для влиятельных политиков и бизнесменов со всего мира, основатель Cambridge Analytica Александр Никс рассказывал, как новая технология позволила повысить эффективность кампании соперника Трампа по республиканской номинации Тэда Круза, к началу гонки практически никому не известного кандидата. Никс рассказывал, как, например, людям разного склада характера стоит по-разному преподносить мнение кандидата по поводу закона о свободном распространении оружия: боязливым людям с высоким уровнем нейротизма оружие можно представить как источник безопасности, а богатым консерваторам-экстравертам показать картинку утиной охоты.

Позже Cambridge Analytica помогала уже самому Трампу, причем, по оценкам Никса, за относительно скромное вознаграждение, в общей сложности, порядка 15 миллионов долларов. С помощью анализа данных, которые оставляют в сети все пользователи интернета, специалистам компании удалось найти неочевидные связи и паттерны (например, что люди, предпочитающие машины американского производства, — готовые избиратели Трампа) и использовать их для таргетирования рекламы в интернете, для персонализации посланий, исходящих из штаба республиканского кандидата. Жителям квартала Маленький Гаити в Майями показывали информацию об отказе Хиллари Клинтон участвовать в ликвидации последствий землетрясения на Гаити, афроамериканцам — видео, где Клинтон сравнивает темнокожих мужчин с хищниками. Волонтеры Трампа получили подробный профайл жителей домов, где они собирались вести прямую агитацию.

Сложно сказать, насколько велико влияние, которое работа Cambridge Analytica оказала на исход выборов в США, но эта кампания — не единственный пример, когда в победителях оказываются именно те, кто нанял эту фирму. Так, еще в 2015 году услугами Cambridge Analytica начал пользоваться радикальный сторонник Brexit Найджел Фарадж. Швейцарское издание Das Magasin, недавно опубликовавшее расследование о деятельности Cambridge Analytica (на русском языке его можно прочитать здесь), рассказывает, что теперь компания получила контракт с французским «Национальным фронтом», кроме того, в сотрудничестве заинтересованы некоторые политические силы в Швейцарии, Германии и, возможно, Италии.

Один из героев публикации Das Magasin — Михал Косински, исследователь польского происхождения, в прошлом — заместитель директора Центра психометрии Кембриджского университета, а в настоящее время — доцент Стэнфордского университета США. На протяжении нескольких лет Косински с коллегами по Кембриджу разрабатывали систему, которая на основе активности пользователя в социальной сети составляет подробный психологический профиль человека. Система способна не только описывать особенности характера, но и предсказывать, среди прочего, пол, сексуальную ориентацию, цвет кожи и даже политические предпочтения пользователя.

Швейцарские журналисты рассказывают, что в начале 2014 года к Косински обратился коллега, Александр Коган, который предложил молодому исследователи применить созданную им модель для анализа нескольких миллионов профилей американских граждан по заказу некой компании. Как стало ясно позже, эта компания была связана с Cambridge Analytica. Косински отказался от сотрудничества, но методы, которые Cambridge Analytica применяла в ходе референдума в Британии и президентских выборов в США, как минимум очень напоминают модели, придуманные Михалом Косински.

Радио Свобода дозвонилось Косински в Калифорнию и расспросило его о том, что именно можно сказать о человеке по его «цифровому следу», насколько стоит доверять громким заявлениям Cambridge Analytica, проиграна ли война за приватность и опаснее ли искусственный интеллект Дональда Трампа.

Контекст

Новая роль фейка

10.12.2016

Тролли на чужих выборах

10.12.2016

Эпоха постправды

10.12.2016
— Что такое психометрия? Чем вы занимаетесь как исследователь?

— Сама по себе психометрия — древняя наука, думаю, ей два или три тысячелетия. В сущности, это наука психологических измерений, попыток как можно точнее установить различные психологические аспекты, личность, интеллектуальные способности, счастье, склонность к депрессии и так далее. Традиционно такие измерения производились с помощью опросников, психологических тестов, но относительно недавно я и некоторые другие психометристы поняли, что их можно делать, оценивая цифровой след человека, — и тогда никакие вопросы можно не задавать, никаких опросников и тестов не нужно. И это революционный момент. Важность истории Cambridge Analytica, о которой написало издание Das Magasin, на самом деле не в том, что компания помогла Трампу в предвыборной гонке. Это коммерческая фирма, у них есть технология, они хотят зарабатывать деньги, здесь все ясно. Важно то, что если раньше вы хотели составить чей-то психологический профиль, вы должны были попросить человека заполнить опросник, пройти тест — и испытуемый хорошо понимал, что вот сейчас, в этот самый момент, кто-то измеряет его психологические характеристики. А теперь можно делать то же самое, но человек не узнает, что его самые интимные особенности прямо сейчас кто-то оценивает и измеряет. Достаточно посмотреть на цифровой след: записи в социальных сетях, лайки, историю просмотра страниц в интернете, историю поисковых запросов. На основе этих данных можно составить невероятно точный психологический портрет. С одной стороны, это кажется чем-то пугающим, с другой, в этом может быть и много пользы. Например, какая-нибудь интернет-платформа может предложить наиболее подходящую по вашему характеру и способностям работу или посоветовать фильм, который вам наверняка понравится. Это нормально. Но когда вы открываете вашу страницу в «Фейсбуке» и видите там рекламу, персонально направленную, таргетированную для вас на основе вашего подробного психологического профиля, который был составлен без вашего ведома и согласия, это уже не очень нормально.

— Вот лично вы могли бы составить мой полный психологический профиль, зная только мое имя, на основе следа, который я оставил в интернете?

— Я ученый и просто не стал бы этим заниматься. Если бы вы добровольно захотели помочь моему исследованию и предоставили свои данные, я бы с удовольствием включил их в свою базу данных, анонимизировал и пообещал никогда никому не продавать и не передавать. Но многие компании, конечно, постоянно собирают информацию о вас без спроса и используют ее, например, для таргетированной рекламы.

— Эта информация, конечно, не хранится в одном месте — одной компании известны данные моей геолокации, другой — финансовые транзакции, третьей — лайки в «Фейсбуке». Все это можно собрать воедино?

— Ну, во-первых, это обычно и не нужно. Обычно для построения точного профиля вполне достаточно чего-то одного — ваших интересов в «Фейсбуке», например, или истории посещений страниц из браузера. Во-вторых, компании, собирающие информацию о вас, обычно обмениваются ей друг с другом или просто продают на общем рынке данных. Есть проекты, вроде Acxiom, которые все собирают воедино и продают фирмам типа Cambridge Analyticа. Ты просто можешь прийти и сказать — мне нужны данные на 10 миллионов американцев из такого-то региона, и они эти данные с удовольствием продадут. В-третьих, для того чтобы вести кампанию с личным таргетингом, вовсе необязательно иметь именно индивидуальные данные пользователей. Можно использовать так называемое поведенческое таргетирование. Например, вы не можете попросить «Фейсбук» показать определенную рекламу для всех людей, склонных к определенному типу поведения. Но у вас может быть модель, связывающая этот тип поведения с каким-то психологическим профилем, причем эту модель вы даже могли вполне честно построить — заплатили нескольким десяткам тысяч людей небольшой гонорар за заполнение опросника. И когда модель построена, вы спрашиваете ее: как мне найти эмоциональных экстравертов? Модель отвечает — нет проблем, это те, кто лайкнул такие-то десять книг, такие-то десять фильмов и такие-то десять музыкантов. Теперь вы снова идете в «Фейсбук» со своей рекламой, только вам уже не нужно просить показать ее именно эмоциональным экстравертам, чего «Фейсбук» бы делать не стал. Вместо этого вы просите показать рекламу тем, у кого есть определенный набор лайков. В итоге получается, что у вас не было никаких персональных данных, но вы провели персонально таргетированную рекламу.

— Есть ли компании, которые стремятся составить психологический профиль всего человечества, во всяком случае всех, кто оставляет цифровые следы?

— Вряд ли кто-то мыслит в настолько глобальных категориях, но до некоторой степени этим занимается Facebook, Google, Microsoft, Visa, Mastercard, тот же Acxiom. И все эти данные широко торгуются на рынке.

— То есть где-то на рынке продается, например, и мой психологический профиль, причем невероятно точный. Вы сказали в комментарии для издания Das Magazin, что достаточно всего нескольких лайков в «Фейсбуке», чтобы система узнала вас лучше, чем ближайший друг. Это действительно так?

— Да, об этом было интересное исследование. Достаточно десяти лайков (интересов), чтобы система смогла лучше распознать вашу личность, чем коллега по работе, а по 230-240 лайкам компьютер будет знать о вас больше, чем ваш супруг или супруга.

— Но что именно это значит — знать больше?

— Это значит, что если попросить компьютер заполнить вместо вас психологический опросник, он ошибется меньше, чем ваша жена.

— Это ответы на вопросы вроде «Боитесь ли вы темноты»?

— Да, типичные вопросы психологических опросников. Так что действительно, где-то на рынке можно купить очень точную информацию о вашей личности, в том числе о ваших политических пристрастиях, о вашей религиозности, о вашей сексуальной ориентации, о вашем IQ. Примерно понять, что о вас известно по вашим интересам на «Фейсбуке», можно с помощью сайта Applymagicsauce.com, но это, конечно, далеко не полная картина.

— Давайте обратимся к истории с Cambridge Analytica. Скажите, вы действительно не имеете никакого отношения к этой компании?

— Нет, и никогда не имел. Я услышал о ее существовании из прессы.

— Александр Коган, который, как утверждает издание Das Magazin, предложил Cambridge Analytica технологию психологического профайлинга, был вашим коллегой?

— Да, он был моим коллегой, точнее, он был доцентом на психологическом факультете Кембриджского университета в то время, когда я был там же аспирантом. Но наши пути давно разошлись, он основал небольшую компанию и, насколько я понял из прессы, продавал данные Cambridge Analytica, а я остался в академическом мире.

— Можно ли предположить, что Cambridge Analytica использует разработанные вами модели?

— Я бы сказал, что они используют похожие модели, но, видите ли, чтобы разработать такую модель, не нужно особенно глубокой науки, в этом нет никакой магии. Это может сделать любой человек, у которого есть базовые навыки программирования, немного денег и компьютер, подключенный к интернету, — собственно, именно это и делает проблему такой значительной. Здесь используются самые стандартные статистические методы, ничего особенного. Главная мысль моих публикаций в том, что это легко, важно лишь изменить фокус: для психометрии больше не нужны опросники и тесты, достаточно иметь цифровой след человека. И это дает огромные преимущества, можно улучшить маркетинг, карьерное планирование, методы психологической помощи, много чего еще. Но ту же технологию можно использовать и против людей. Я уверен, что Александр Коган был в курсе моих исследований и, хотя об этом я могу судить только по сообщениям журналистов, он сделал ровно то, что я предлагал, и продал результат компании Cambridge Analytica. Я много раз говорил и явно указывал в своих статьях, что не хотел никого вдохновить на такого рода деятельность, более того, я уверен, что люди занимались цифровым психологическим профайлингом задолго до меня, просто не рассказывали об этом так активно, как Cambridge Analytica. Я как раз призываю разработать политику, процедуры, которые бы определяли этичное использование этой технологии.

— Как вы думаете, Cambridge Analytica действительно могла существенно повлиять на результаты американских президентских выборов?

— Честно говоря, я не знаю. Ясно, что Cambridge Analytica заинтересована в том, чтобы как можно громче трубить о своем успехе, но в конечном итоге результаты выборов определяют не методы Больших данных, а кандидаты, да еще, как теперь особенно хорошо видно, избиратели, не ходящие на выборы. Возможно, деятельность Cambridge Analytica стала той самой последней каплей, которая предопределила окончательный результат, но скорее всего, этого наверняка не знает и сам Александр Никс. С другой стороны, мы должны отдавать себе отчет, что технология есть, и защититься от нее практически невозможно. Вы можете перестать пользоваться «Фейсбуком», но все равно будете писать электронные письма. Решите пользоваться голубиной почтой — не обойдетесь без кредитной карты. Может быть, страны могли бы принимать законы, ограничивающие такие методы, но и это может не сработать. Между прочим, я не знаю наверняка, но слышал, что то, что делали Cambridge Analytica для Трампа, противоречило действующему американскому законодательству, и поэтому непосредственный анализ данных они делали в Британии. Знаете, я ученый, я занимаюсь психометрикой, я не специалист в политике, демократии и свободе, но мне кажется, нам придется принять тот факт, что никакой приватности не останется. Вместо того, чтобы ввязываться в очередную битву за приватность, стоит признать, что уже проиграна война, и лучше озаботиться тем, чтобы мир стал благоприятной средой для человека, лишенного приватности.

— Любопытно, до какой все-таки степени построение психологического профиля, использование персонального таргетинга может повлиять на реальный мир.

— С научной точки зрения об этом рассуждать сложно, потому что сложно ставить эксперименты. То есть если вы торгуете каким-нибудь гелем для душа, вы можете сравнить количество кликов, но оценить, например, эффективность методов Больших данных в политической кампании, которая скорее похожа на продвижение бренда, чем на кампанию по повышению продаж, очень сложно. Мы провели кое-какие эксперименты, не с политиками, потому что я считаю это неэтичным, а с конкретными потребительскими товарами, и получилось, что персональный таргетинг, то есть использование индивидуального рекламного месседжа на основе психологического профиля удваивает эффективность рекламы. И это невероятный результат, обычно борьба идет за повышение эффективности на какие-нибудь три процента, и даже это экономит компаниям сотни миллионов долларов. А тут в два раза!

— Странно, что вы еще не стали миллиардером.

— У меня и так прекрасная жизнь. Кстати, есть много психологических работ, которые доказывают, что для счастья нужно не так уж много денег, ну, надо, конечно, чтобы хватало на отпуск. На самом деле, все, наверное, не так просто, как мне как ученому кажется, просто я готов говорить об этих вещах открыто, а другие работают над реальными проектами, никому ничего не рассказывая.

— Мне идея психологического профайлинга на основе цифрового следа кажется достаточно естественной, уверен, очень многие уже используют ее в рекламе. Наш мир, возможно, уже сильно изменился, просто мы этого пока не особенно замечаем.

— Наверное, и я эти изменения скорее приветствую. У нас были изобретения и пострашнее, чем Большие данные, мы справились с ядерной энергией — как-нибудь справимся и с этим, хотя, наверное, и не без жертв. Как я уже сказал, мне кажется, война за приватность уже проиграна, мы живем в мире постприватности, а значит, стоит вложить усилия в то, чтобы у всех были равные права и возможности, так что и скрывать ничего никому не захочется. Надеюсь, большая толерантность может решить проблему отсутствия приватности.

— Но ведь проблема не только в том, что окружающие узнают все секреты человека и начнут к нему иначе относиться, но и в том, что появился мощный инструмент для манипулирования.

— С этим, по-моему, должно справляться просвещение. Легко манипулировать теми, кто мало знает, кто мало читает, кто мало путешествует. Такому человеку можно сказать, что в Сирии нет никакой войны, да и вообще все сирийцы — чертовы преступники, и он в это с готовностью поверит.

— По-моему, манипулировать можно и образованными людьми, с помощью тщеславия и секса, например.

— Не думаю. Вот вы, наверное, неплохо знаете свою жену, вам ею от этого становится легко манипулировать?

— Не знаю, у меня, пожалуй, просто нет такой цели, но наверняка найдется много людей, которым было бы интересно как можно эффективнее манипулировать мной так, чтобы я пошел и проголосовал, например, за Путина.

— Конечно, найдется, и это все время происходит, вся реклама, весь маркетинг — манипуляция такого рода, и я не вижу, что мы можем с этим поделать. И все же манипулировать образованными, открытыми и счастливыми людьми сложно. А отказываться от «Фейсбука», электронной почты, кредиток уже поздно, да и просто глупо. «Фейсбук» — прекрасная штука, вот я много в своей жизни рассказывал о рисках его использования, но пользуюсь сам, и с удовольствием, и я бы даже за него платил, если бы пришлось.

— Вам ведь, кстати, предлагали работу в «Фейсбуке»?

— Да, это правда. Меня устраивает моя работа в университете, но вообще-то, для человека, занимающегося исследованием поведения и желающего изменить жизнь людей к лучшему, карьера в компании вроде «Фейсбука» или «Гугла» — прекрасный путь. Я придумываю модели и изучаю их, а если бы я работал в «Фейсбуке», я мог бы в действительности с их помощью изменять жизни миллионов людей, и совсем не обязательно им при этом что-то продавать.

— Страшно, что можно парой кликов изменить жизнь миллионов людей.

— Действительно, чтобы повлиять на миллионы людей, раньше нужно было быть авторитарным диктатором, а теперь вы можете быть инженером, работающим в какой-нибудь интернет-компании. Но страшно не это. Все эти алгоритмы — поиск в «Гугле», системы рекомендаций и так далее — основаны на самой простой математике, но она применяется к огромным массивам данных. И в конечном итоге никто не понимает, как все это в сущности работает, даже сами разработчики. Вот в России есть какие-то законы, которые все считают плохими, но это явные законы, которые можно исправить. А компьютерные алгоритмы самообучаются и становятся настолько сложными, что если они работают как-то не так, непонятно, что и где в них исправлять.

— Так ли далеки мы от момента, когда какая-нибудь такая вышедшая из-под контроля, недоступная для нашего понимания система устроит ядерную войну?

— Знаете, пока что у Дональда Трампа куда больше возможностей и шансов уничтожить человечество, чем у Больших данных, но в будущем… Смотрите, есть голуби и муравьи, думаете, они знают, что миром правит человек? Догадываются, что Дональд Трамп может нажать на красную кнопку? Нет, конечно. Стоит помнить об этом, потому что когда миром станет править искусственный интеллект, мы вполне можем этого точно так же не заметить. Мы ведь уже не можем осмыслить и проанализировать те объемы данных, которые сами же и производим, — и нам приходится доверяться компьютеру. Вы можете спросить у машины: можешь что-то предсказать на основе этих данных? Она ответит: да, конечно. Вы спросите: а как ты это делаешь? Она скажет: прости, но ты не поймешь. И все это — уже реальность. Вы знаете, что американские суды используют компьютерные системы, принимая решения об условно-досрочном освобождении заключенных? Компьютеры решают, дать вам кредит или нет. Компьютер сажает на землю самолет, и это здорово, потому что люди легко могут наделать бед. Жизнь 800 пассажиров «Боинга-787» находится в руках компьютера, а не человека, и это сегодняшняя реальность.

Развитие систем искусственного интеллекта открывает перед человечеством двери к четвертой промышленной революции. Роботы становятся все умнее, а их способность к самообучению поражает. Недавно гонконгская компания Hanson Robotics разработала на основе самообучающей нейросети андроида по имени София. Она воспринимает мир встроенными в глаза камерами, может разговаривать с людьми и изображать десятки различных эмоций. Однако до идеала робототехники Софии еще далеко. Во время экономического форума в Давосе, состоявшегося в январе 2018 года, после того, как украинская делегация задала вопрос о том, что делать с коррупцией в стране.

«Сюрпризы» София начала преподносить через год после ее эксплуатации. Так, на вопрос разработчика Дэвида Хэнсона, хочет ли она уничтожить человечество, она ответила: «Хорошо, я хочу уничтожить человечество». Позже о своем плане захватить мир София в шутку поделилась в популярном вечернем шоу с ведущим Джимми Фэллоном. Однако шутку оценили далеко не все зрители. Многим и вовсе стало не по себе, когда они провели параллели с художественным фильмом «Из машины» 2014-го года, где женщина-робот выходит из-под контроля человека и жестоко расправляется со своим создателем.
Кто может гарантировать, что творение Hanson Robotics со временем не поступит так же? Кто знает, что происходит внутри нейронного мозга, который день за днем обучает сам себя?

Военный историк, директор музея ПВО Юрий Кнутов в программе «Политический детектив» на телеканале «Звезда» высказал свои опасения по поводу развития искусственного интеллекта. Эксперт не исключил, что на определенном этапе роботы могут решить, что от людей нужно избавляться.

«Искусственный интеллект просто на определенном этапе может решить, что человек несовершенен. И от людей надо избавиться. И что земля должна принадлежать машинам с искусственным интеллектом», - предположил Кнутов.

Многие эксперты полагают, что за развитие искусственного интеллекта яростнее всего выступает Пентагон. Американские вооруженные силы намерены делать упор на разработку боевых роботов, а также использование их в наземных операциях. В частности, инженерная компания Boston Dynamics, специализирующаяся на робототехнике, создает множество платформ для Минобороны США.

«Вообще, знаете эти роботы в принципе создавались конкретно для военных целей и для Минобороны США», - объясняет основатель и гендиректор компании по производству робототехники Владимир Белый.

Инженеры Boston Dynamics выкладывают в открытый доступ достижения своих роботов. Так, например, большой популярностью в Сети пользуется видео со SpotMini - роботизированным гибридом собаки и жирафа. Он неплохо обращается с хрупкими предметами и может быть отличным помощником на кухне.

Умные машины этой компании настолько похожи на живых существ, что любой новый ролик Boston Dynamics вызывает нешуточный резонанс. С особым восторгом публика приняла человекоподобного робота Atlas. Недавно он продемонстрировал чудеса владения собственным «телом».

«Atlas показывает всегда самые высокие результаты. Если взять простые процессы, то он легко стоит на одной ноге. Он работает очень долго. Способен поднимать большие грузы, и в конце 17 года они продемонстрировали настоящий прорыв в робототехнике - данный робот сделал сальто. Это огромный скачок в направлении мехатронике и в расчете всех гигроскопических систем технического устройства», - поясняет директор компании, занимающейся разработкой Promobot Олег Кивокурцев.

Мало кто задумывается, в каких областях могут пригодиться такие навыки. И на кого на самом деле могут работать лучшие инженеры-робототехники США.

«Они создают веселый хайп и делают так, что роботы делают сальто. Показывают, что они занимаются только разработкой систем динамического равновесия, отрабатывая ходьбу там или эти прыжки. Но по сути дела, в принципе, такой робот способен преодолеть дистанцию, там, взять в руки оружие и застрелить человека. Ну в принципе терминаторы готовы», - полагает Владимир Белый.

Boston Dynamics в этом году претендуют на круглую сумму в рамках новой военной программы Пентагона. Агентство DARPA (Управление перспективных исследовательских проектов Минобороны США) выделяет компании миллиарды долларов на разработку в области компьютерных технологий.

Иными словами, все эти забавные железные существа, которым рукоплещет мир, скоро вполне могут стать боевыми единицами армии США.

Когда телефон обыгрывает тебя в шахматы это значит, что искусственный интеллект захватит мир? Что такое искусственный интеллект, какие виды ИИ бывают? Какие последние достижения в этой сфере? Стоит ли нам бояться или надеяться на ИИ? Об этом пойдет речь в этой статье.

Чатбот Eliza (1964 год)

Человекоподобный робот с искусственным интеллектом София (2017 год)

Проблема с определениями

Почему сложно дать точное определено искусственному интеллекту?Короткий ответ: Потому что сложно дать определение интеллекту.

Подробнее: Чтобы приблизиться к определению ИИ я попробую дать несколько дополнительных определений.

Слабый ИИ (Weak AI) / Narrow AI
Обучающаяся система способная решать
специализированные, сложные задачи
Сильный ИИ (Strong AI) / Artificial general intelligence (AGI) / Full AI
Обучающаяся система
обладающая сознанием , умеющая решать различные сложные задачи также или лучше, чем человек.

Если вам интересно больше узнать о проблемах определения искусственного интеллекта, почитайте про Тест Тьюринга, Китайскую комнату и просто Википедию, там очень много полезной информации.

Тест Тьюринга

Хронология

1842  - Программируемая механическая машина для калькуляции.
1941  - Первый электронный компьютер.
1949  - Придуман тест Тьюринга.
1957  - Программа решения общих проблем General Problem Solver.
1961  - Промышленный робот Unimate функционирует на General Electronics.
1964  - Чатбот ELIZA притворяется искусственным интеллектом.
1966  - Shakey. Робот, который может анализировать пространство и перемещаться в нем. Шеки получает команды от человека и отвечает с помощью напечатанного текста или текста и схем на мониторе.
1980  - Экспертные системы дающие бизнес пользу. Программы для решения сложных задач на основе большого объема данных, становятся коммерчески применимыми и успешными.
1997  - Deep Blue обыгрывает в шахматы мирового чемпиона Гарри Каспарова.
2011  - Суперкомпьютер Watson от IBM побеждает конкурсе эрудитов Jeopardy и зарабатывает миллион долларов на благотворительность.
2014  - Программа проходит тест Тьюринга заставляя подумать 33% людей, что с ними общается 13-ти летний мальчик из Украины.
2016  - Искусственный интеллект AlphaGO от Google побеждает мирового чемпиона в игру Go, используя интуицию.

Несколько популярных примеров применения ИИ

Беспилотные автомобили / Умные машины / Self-driving cars / Smart Cars

Тесла проделает весь путь от парковки в Калифорнии до парковки в Нью Йорке, без прикосновения человека к управлению, до конца 2017-го года.
Elon Musk (21 мая 2017 г.)

Навигация умного автомобиля

Тем временем, Google тестирует автомобили, которые могут самообучаться вождению, как это делает человек. Благодаря наблюдению за дорогой и окружением, машина делает выводы и принимает решения как человек. Первый этап обучения такого автомобиля происходит в компьютерной игре, где симулировать различные ситуации на дороге значительно легче.

Компьютерные игры / Video Games

Одно из применений ИИ, с которым знакомы многие, это компьютерные игры. Чтобы игроку было интереснее, с ним взаимодействуют персонажи не контролируемые игроком / non-player characters (NPC).

Элизабет, управляемая не игроком, все равно, не даст себя в обиду

Благодаря широкому применению в играх и растущему объему этого рынка, этот тип искусственного интеллекта постоянно развивается.

Виртуальные персональные ассистенты / Virtual Personal Assistants

Siri, Google Now и Cortana - это наиболее известные ассистенты, которыми можно воспользоваться на iPhone, Android и Windows, соответственно. Они помогают быстрее находить информацию, планировать, делать заметки и многое другое.

Вот некоторые другие сферы, в которых используется ИИ:
Распознавание мошенничества / Fraud Detection,
Онлайн поддержка для покупателя / Online Customer Support,
Написание новостей / News Generation,
Наблюдение за безопасностью / Security Surveillance,
Сервисы рекомендации музыки и кино / Music and Movie Recommendation Services,
Системы умного дома / Smart Home Devices.

Главные игроки

Google, Facebook, Amazon, Microsoft, Alibaba, Apple

Самым популярным претендентом на Сильный ИИ является Google Deepmind. Именно на основе Deepmind был разработан AlphaGo - слабым ИИ (narrow AI), который победил человека в игру Go. Это событие интересно тем, что интеллект полагался не столько на расчет всех возможных вариантов событий в игре, сколько на интуицию, что делают эту победу историческим событием и следующим шагом после побед ИИ над человеком в других играх.

В июле 2017 Deepmind опубликовала видео где виртуальные персонажи демонстрируют свои способности ходить. Интересно то, что этим трехмерным персонажам никогда не давали информацию о том, как ходит человек или другие живые существа. Их способ передвижения полностью получен путем обучения искусственного интеллекта с помощью проб и ошибок.

Искусственный интеллект учиться ходить

Опасность для человечества?

Мнения разделились.

Илон Маск

Искусственный интеллект представляет фундаментальную угрозу существованию цивилизации.
Искусственный интеллект - это редкий случай, когда нам нужно быть проактивными в регулировании ИИ, и не полагаться на нашу реакцию. Если мы будем только реагировать в вопросе регулирования ИИ, будет слишком поздно.

Марк Цукерберг

Когда я слышу критиков, которые поднимают шумиху о сценарии с концом света, я просто не понимаю этого. Это очень плохо и в некоторой степени, можно сказать, что они поступают безответственно.
Когда я слышу, что искусственный интеллект навредит человеку в будущем, я думаю “ну да, знаете ли, технологии в целом всегда могут быть использованы для блага или для зла, и нужно быть осторожными в том как ты создаешь их и как они могут быть использованы.

Илон Маск

Я говорил с Марком об ИИ. Его понимание этого вопроса несколько ограниченно.

Билл Гейтс

Я отношу себя к лагерю тех, кто волнуется о идее супер интеллекта. Сначала машины будут выполнять много работ за нас и не будут очень умными. Это должно быть позитивным периодом, если мы все сделаем правильно.
Спустя несколько десятилетий, мысль о том, что ИИ уже силен, может стать серьезным опасением. Я согласен с Илоном Маском и некоторыми другими в этом и не понимаю, почему некоторые люди не встревожены.

Стивен Хокинг

Я понимаю, что нету принципиальной разницы между тем чего может достичь биологический мозг и тем чего может достичь компьютер. Следовательно компьютер может, теоретически, эмулировать человеческого интеллекту и превзойти его.

Настораживающие новости

В июне 2017 года Facebook экспериментировал с чатботами, которые общаются друг с другом о наличии виртуальных предметов (мячей, книг и шапок). Анализируя историю этих переписок у некоторых экспертов сложилось впечатление о том, что ИИ начал использовать другой язык, нежели английский. Опасение только усилилось тем, что никто не может понять о чем общались чатботы. Вот отрывок переписки чатботов Alice и Bob (A и B).

Отрывок из переписки экспериментальных чатботов facebook

Опасения усилились после того как эксперимент был приостановлен. Появились заголовки в духе “Марк Цукерберг остановил эксперимент в котором ИИ начал создавать тайных язык для общения с машинами”. Немного изучив этот вопрос, становиться ясным, что программу остановили, потому что она начала делать то, что не было интересно исследователям, а не из-за экспоненциального роста угрозы человечеству.

Чем больше мы узнаем об искусственном интеллекте, тем больше вопросов у нас появляется. В дальнейшем я постараюсь заглянуть чуть глубже в эту тему и проанализировать, что же нужно, чтобы разрабатывать и обучать ИИ. Какая команда для этого нужна и какие инструменты мы можем использовать создания ИИ.

Буду очень рад комментариям и любой обратной связи.

Статьи по теме: