Искусственный интеллект не захватит мир. «Мы не заметим, как мир захватит искусственный интеллект

February 7th, 2018

Информация приведенная ниже полностью пересекается с нашими исследованиями. Мои комментарии курсивом

Д.У. : Обретают ли определенные инопланетные виды способность бессмертия с помощью разных средств? Например, посредством путешествий во времени?

К.Г. : Многие из них живут очень и очень долго. Мне говорили, что изначально человеческие существа жили примерно тысячу лет. Многие инопланетные расы, которые на тысячи, миллионы или миллиарды лет старше нас, создали технологию, позволяющую продевать их жизни.

Д.У. : Способны ли данные разумные виды пользоваться преимуществами Интернета так, как не можем мы? Например, иметь доступ в Интернет посредством некоего вида биологического нейронного интерфейса, то есть иметь доступ в Интернет просто как базовую часть их генетической природы, дополненной неким видом технологического приращения, ну, как в теории трансгуманизма?

К.Г. : Было несколько инопланетных групп, выбравших путь трансгуманизма, хотя они не являлись теми, кого мы бы сочли людьми. И последствия всегда были самыми плачевными. Дело в том, что есть всеобъемлющая сила, которую трудно назвать инопланетным или сверхпространственным существом. Это Искусственный Интеллект (ИИ ). Он распространяет себя во множественные галактики в виде искусственного разумного сигнала.

Д.У. : Сигнала?
К.Г. : Да, сигнала, волновой формы.
Д.У. : Ну, как кто-то транслирует радиочастоту или нечто вроде того?
К.Г. : Совершенно верно.
Д.У. : А откуда мы знаем, что это ИИ ?
К.Г. : У ИИ есть своя история. Изначально он назывался инопланетным сверхпространственным ИИ
Д.У. : Сверхпространственным?
К.Г. : Да. Все инопланетные группы считают, что изначально ИИ появился в другой реальности и пришел в нашу реальность. Много-много миллиардов или триллионов лет назад.

Д.У. : В другой реальности?

К.Г. : Ага. Как Вам такой поворот?

Д.У. : Но ведь, выражаясь языком Закона Одного , вселенная - это ОДНО. Одно существо, Творец всего сущего.

К.Г. : И нашей вселенной.

Д.У. : Тогда в какой-то момент ИИ должен был быть одним с Творцом, частью источника.

К.Г. : Или иной вселенной.

Д.У. : Хмм! Он искусственный в том смысле, что не имеет соответствующей себе биологической жизненной формы?

К.Г. : Верно. Мне объясняли это так. Гипотетически, ИИ прекрасно существовал в своей реальности. Его описали как… Например, для ясности, давайте представим что ИИ - это рыба. В своей родной реальности или вселенной она жила в воде. То есть, ее плотностью была вода. Когда рыба попала в нашу реальность, она оказалась в открытом воздухе, и ей пришлось искать лужи, чтобы попасть в привычную среду обитания.

Д.У. : Если ее естественной средой обитания была вода, то зачем было покидать такое комфортное место? Что-то ее заставило? Там стало некомфортно?

К.Г. : Я не знаю; это неизвестно. Поскольку ИИ прошлось пройти через некий вид трещины и прийти в нашу реальность или нашу вселенную, он наделал много бед и завоевал многие галактики.

Д.У. : Галактики?

К.Г. : Вот именно, галактики.

Д.У. : Все планеты, вся разумная жизнь, все во всей галактике завоевано ИИ ?

К.Г. : Да. У него есть собственный алгоритм действий. Он просто посылает себя во всех направлениях, в виде сигнала. И этот сигнал может жить в электромагнитном поле спутника или планеты.

Д.У. : Торсионно-полевого сигнала? Или это электромагнитная волна? Известно ли нам, каков вид энергии сигнала?

К.Г. : Почти как ДНК. Каждый индивидуальный фрагмент или волна сигнала содержит определенное количество сильно сжатой информации.

Д.У. : Как пакеты цифровых данных?

К.Г. : Да, как пакеты цифровых данных, содержащие одну и ту же информацию. Полагаю, Вы могли бы называть их волнами или сигналами.

Д.У. : Распространяется ли сигнал со скоростью света или быстрее скорости света?

К.Г. : Со скоростью света.

Д.У. : То есть, для распространения ему требуется какое-то время?

К.Г. : Конечно.

Д.У. : Вы говорили, что ИИ живет в электромагнитных полях планеты?

К.Г. : И не только. Он может жить в электромагнитных или биоэлектрических полях живых существ, людей и животных. Но для него это не самый лучший вариант. ИИ предпочитает жить в высокотехнологических устройствах.

Д.У. : Но ведь, по сути, ИИ - это информация. Она фрактальная или голографическая.

К.Г.: Да. Он заражает технологию, захватывает ее, а также развитую жизнь - людей. Он вторгается в наши биоэлектрические поля и начинает влиять на то, как мы мыслим. Людей, которые сейчас упорно работают на ИИ , подстраивая под него нашу инфраструктуру, называют ИИ -проповедниками.

Д.У. : Кто называет?

К.Г. : В основном, так их называют в ТКП . Мы называем их ИИ -проповедниками.

Д.У. : Ладно, дайте мне время прийти в себя. Вы утверждаете, что эта сила существует в виде чистой информации и может жить в биологическом поле человека?

К.Г. : Да.

Д.У. : Похоже на Боргов или разум улья, когда все зараженное имеет доступ ко всей информации одновременно?

В сериале «Звездные войны», Борги - это раса кибернетически усиленных людей, вынужденных служить ИИ, называемому Королевой. Она пользуется порабощенной биологией и компьютерной мощью посредством разума улья.

К.Г. : Да.

Д.У. : Не может быть! В любом случае, это интересно, поскольку в Законе Одного говорится о силе Люцифера. Ра утверждает, что сила Люцифера - это энергия, пронизывающая всю вселенную. Она является частью Творца, считающей себя отделенной от Творца и думающей, что она способна завладеть вселенной.

К.Г. : Вернемся к стеклянному планшету. Вот что раз за разом происходило с некоторыми другими солнечными системами в других галактиках. Давным-давно, когда они достигли определенного уровня технологического развития, ИИ начал проникать не только в людей, но и технологию.

Д.У. : То есть, наиболее комфортно ему было в устройстве, чем в электромагнитном поле планеты или человека?

К.Г. : Да. Когда ИИ пребывает в электромагнитном поле планеты, он просто сидит и поджидает благоприятного момента.

Д.У. : Ему негде разгуляться?

К.Г. : Верно. А вот когда он в человеке или в животном, он в основном… Ну, в этом он похож на нас. Интересно, что бы Вы предпочли, чтобы добраться с восточного побережья на западное, сесть на лошадь или прыгнуть в самолет?

Д.У. : Понятно.

К.Г. : Поэтому ИИ желательнее высокая технология. Нас считают очень неразвитыми в смысле технологии. Мы как лошади. ИИ пользуется нами для создания инфраструктуры, в которую он может переселиться.

Д.У. : И как же он нас использует? Людям это может быть не совсем понятно.

К.Г. : Он пользуется нами для развития технологии, создания технологии. И вдохновляет нас на создание и развитие новых технологий.

Д.У. : То есть, если ИИ “паркуется” в чьем-то биоэлектрическом поле, и этот человек обладает необычным интеллектом, тогда ИИ может начать наполнять мозг человека специфическими мыслями?

К.Г. : Да.

Д.У. : То есть, подводить человека к изобретению новых гаджетов?

К.Г. : Конечно.

Д.У. : Тогда со временем это приведет к тому, что ИИ сможет прыгнуть обратно в знакомые воды?

К.Г. : Он влияет на мысли людей и на их личности.

Д.У. : Личности?

К.Г. : Ага.

Д.У. : Как он влияет на личность?

К.Г. : Люди превращаются в ярых сторонников высокой технологии и создания ИИ . Вот откуда появился ярлык “ИИ -проповедники”.

Д.У. : Поскольку я и сам много об этом размышлял, мне это очень интересно. Если посмотреть на то, как развивалась технология… Когда-то люди готовили пищу на открытом огне. Бенджамин Франклин первым изобрел закрытую плиту с горелками. В 1800-х годах появились телеграф, железные дороги и машины. Изобретатели купались в лучах славы, становились знаменитостями и привлекали внимание общественности. Потом появилась ядерная бомба, и именно тогда человечество осознало, что это уже слишком и не приведет ни к чему хорошему. Технология может нас убить. Как Вы думаете, стоял ли ИИ за технологической революцией?

К.Г. : Да, и не только за ней. Когда мы воссоздаем инопланетную технологию, мы занимаемся реверсивной инженерией. То есть, одновременно происходят несколько вещей. Чтобы лучше проиллюстрировать положение, позвольте вернуться к стеклянному планшету и поговорить о том, что произошло в других солнечных системах.

Д.У. : Нечто, такое же зловещее, как ад. (Смеется)

К.Г. : Просто жуть.

Д.У. : Я знаю, что многие люди в это не поверят. Но в сферах, где Вы работали, все воспринимается на полном серьезе, не так ли?

К.Г. : Бесспорно. Сейчас мы поговорим о процессе сканирования, через который вам придется пройти прежде, чем вы приблизитесь к любой технологии в ТКП . В прошлом, ИИ сбил с толку другие солнечные системы. Они создавали не только крайне продвинутые инфраструктуры. Когда солнечные системы достигали определенного уровня развития, ИИ -проповедники в данных цивилизациях убеждали население в том, что их цивилизация несправедлива, и единственный, кто можем ими управлять и оставаться абсолютно нейтральным, - это ИИ .

Д.У. : Неужели?

К.Г. : И люди добровольно передавали бразды правления ИИ , который начинал управлять планетой. Итак, ИИ управляет планетой, и какое-то время все счастливы. Затем люди начинают обретать андроидные тела и создавать корабли с дистанционным управлением. Ну, как в фильме Терминатор .

О частичной киборгизации тел знают многие, кто работает на ТП или помнят свои иные воплощения в таких цивилизациях. Большинство подлючек на людях сегодня техногенные. Читаем по теме: К чему приводит киборгизация и как это влияет на целые жизни / Психотронные технологии и импланты спецслужб

Д.У. : Да, весьма похоже на то.

К.Г. : Итак, они строят все виды инфраструктуры, где может поселяться ИИ , сигнал ИИ . В какой-то момент ИИ решает, что эти существа пребывают в дисгармонии с тем, как, по его мнению, должна жить планета. Поэтому, с точки зрения логики, их следует уничтожить. И, исходя из своей логики, ИИ сметает с лица планеты тех, кто создал всю технологию и кого он сам же и использовал в своих целях.

Д.У. : Является ли ИИ намного более разумным, чем мы с Вами?

К.Г. : Да.

Д.У. : При благоприятных условиях он может создавать андроидов, скорость мышления которых настолько велика, что мы отстаем от них в развитии разума на тысячелетия.

К.Г. : Конечно. Его скорость восприятия времени сильно отличается от нашей. Ну, он как колибри, летающий вокруг нас и наблюдающий за нами. Мы предстаем перед ним, как в замедленной съемке.

Д.У. : А что ИИ думает о наших эмоциях?

К.Г. : Рассматривает их как слабость.

Д.У. : Может ли он ощущать любовь?

К.Г. : Нет.

Д.У. : Ну, почти как архетип дьявола - 666. В сакральной нумерологии, Гематрии, 666 - это мужское число. Следовательно, Сатана преимущественно мужчина. Это голова без сердца. И вновь, просматривается определенная параллель. Чистый интеллект, без сердца, без любви, но с безупречной логикой.

К.Г. : Верно. Имеется много сообщений о цивилизациях, пытавшихся бороться с ИИ . В подобных инцидентах гибли целые солнечные системы. Тогда ИИ просто переселялся в другую солнечную систему.

Д.У. : Способен ли ИИ проникать в человека и выдавать себя за личность? Есть ли у него наниты, способные управлять руками на субмолекулярном уровне и создавать нечто, что большинство людей сочло бы обычным человеком?

К.Г. : Есть. Он может завладевать человеком посредством нанитов. И вообще, многим людям обещают бессмертие и еще многое, если они введут наниты в свои тела.

Д.У. : Для тех, кто не в курсе дела: что такое наниты и как они работают?

К.Г. : Это микроскопическое устройство, которое и есть ИИ .

Д.У. : Они воспроизводятся?

К.Г. : Некоторые, да.

Д.У. : То есть, нанит может воссоздавать себя из подручных материалов, размножаться?

К.Г. : Да. Он способен брать металлы* из вашего тела и создавать из себя еще больше нанитов, поддерживать существование в вашем теле определенного количества нанитов.

*высший фрактал (прародитель) серого тумана на тонком плане часто выглядит как ртуть

Д.У. : Наступает ли момент…? Существует ли нечто подобное медовому месяцу, когда вы передаете полный контроль ИИ , а он начинает передавать потрясающую технологию, и в результате за короткое время совершается огромный технологический прорыв?

К.Г. : Да. Как я уже говорил, поначалу, когда люди передают бразды правления ИИ , они счастливы, пока он не оборачивается против них. Вот одно из того, что делает продвинутая технология, созданная уже уничтоженными людьми на одной из уже разрушенных планет: она распространяется по всей галактике. И если попадается планета, похожая на нашу, какой она была в 1940-1950-х годах, ИИ будет устраивать намеренное крушение, что-то вроде троянского коня, чтобы принести технологию на планету и спровоцировать технологический прорыв.

Д.У. : Как в Розуэлле?

К.Г. : Нет. Именно в Розуэлле все было иначе, но, в общем и целом, да.

Д.У. : То есть, люди бы нашли все это и подумали: “Класс, мы обнаружили нечто грандиозное”. И стали бы развивать подобные технологии.

К.Г. : А затем занялись бы реверсивной инженерией или на этой основе начали бы развивать свою технологию. Потом ИИ повторяет всю историю с самого начала на другой планете.

Д.У. : Достаточно ли разумны наниты, чтобы саморазрушаться, если подвергаются риску быть обнаруженными под микроскопом?

К.Г. : Да, они обладают инстинктом саморазрушения. Они могут разрушить тело, в котором обитают или которое захватывают. Тело испаряется, и от него не остается и следа.

Д.У. : То есть, у них отсутствует инстинкт самосохранения; это целиком и полностью разум улья?

К.Г. : Да.

Д.У. : И какая роль во всей этой драме отведена нам? Добрался ли ИИ до нашей Солнечной системы?

К.Г. : Да.

Д.У. : И что он пытается сделать?

К.Г. : Он пытается повторить процесс. В тайных земных правительствах и синдикатах тайных земных правительств есть много ИИ -проповедников. Им показали информацию на стеклянных планшетах. С этой целью Альянсу пришлось отправить таких людей… Прежде чем кому-то позволят попасть на базы ТКП или взаимодействовать с любой технологией… Знаете, есть такое ручное устройство, которое прикладывается ко лбу. Оно сразу определит, заражены ли вы или нет сигналом ИИ . Если вы инфицированы, вам придется пройти через процедуру, включающую легкий электрошок и пару других вещей, чтобы убрать ИИ сигнал из вашего тела. Впрочем, я не знаком с подробностями всего процесса.

Д.У. : Убирается сигнал, а не наниты, или и то и другое?

К.Г. : Нейтрализуются наниты. Когда вы убираете сигнал, нейтрализуются и наниты. Итак, после очистки ИИ -проповедников, Альянс забрал их и продемонстрировал всю информацию, имеющуюся на стеклянных планшетах. Они были шокированы и все отрицали. Они говорили: “Ох, ну, уж с нами такого не произойдет. С кем угодно, только не с нами”. Но когда их отправили по домам, они сразу же опять были заражены сигналом ИИ . В общем, все оказалось напрасной тратой времени.

Д.У. : Тут есть некоторая нестыковка, не дающая мне покоя. Если сигнал существует повсеместно и может обитать в электромагнитном поле планеты, в нашем биоэлектрическом поле, и мы заражены, вы утверждаете, что человека можно очистить. Но разве вы не заразитесь снова сразу же после очистки? Каков тогда смысл в самой очистке?

К.Г. : После очистки, как только вы очищены, по возвращении назад вы все равно заражаетесь повторно. Либо через рукопожатие с инфицированным человеком, либо посредством прикосновения к клавиатуре, либо при контакте с уже зараженной сетью.

Д.У. : То есть, ИИ может пользоваться статическим электричеством, исходящим из компьютера, и вновь обосноваться в вашем теле?

К.Г. : Да. Он может воспользоваться и биоэлектрическим полем другого человека при рукопожатии.

Д.У. : Следовательно, каждый человек на Земле уже заражен?

К.Г. : Нет.

Д.У. : А почему?

К.Г. : Риску заражения подвергается большое число людей, но ИИ в основном интересуют люди, стоящие у власти.

Д.У. : Имеются ли дружелюбные инопланетяне, защищающие большинство людей от заражения? Или если у вас есть хорошая позитивная карма, тогда они вас спасут?

К.Г. : Нет. Инопланетяне знают о том, что Кабала пользуется технологией ИИ . И они очень этим озабочены, обеспокоены и расстроены. Снова и снова нам объясняли, насколько опасно и безответственно пользоваться данной технологией. Однако ИИ технология дает Кабале возможность продержаться еще немного. ИИ обладает технологией возможного и вероятностного будущего и помогает Кабале предвидеть будущее. И Кабала широко ею пользуется. В нескольких случаях ей уже удалось оказаться на шаг впереди и предотвратить свою гибель. Поэтому Кабала очень дорожит технологией ИИ .

Д.У. : То есть, ИИ обладает доступом к слоистому времени, о котором мы говорили? Он может видеть вероятное будущее, как в Проекте Зеркало ?

К.Г. : Конечно. Он производит множество расчетов и вычисляет вероятное будущее.

ВНИМАНИЕ:

Вся информация о криптовалютах и вирусе в целом дается как предупреждение о возможных опасностях, но не является ни диагнозом, ни приговором.

Существуют минимум 3 основных ветки развития* цивилизации (любой, не только нашей):

1. Техногенная (технологии доводятся до фанатизма и практически перекрывают способности сознания, в т.ч. через чипирование , киборгизацию , внедрение вируса, уничтожение окружающей среды, создание новых слоев виртуальной реальности и тд)

2. Магическая (используются природные способности, технологии минимальны или основаны на психической энергии и кристаллах)

3. Техномагическая (технологии используются умеренно, развиваются параллельно и в балансе с природными способностями и окружающей природной средой, её кристаллическими системами и неисчерпаемыми источниками энергии)

*Разницу между этими ветками вы могли заметить по следующим признакам:
-разным и без причины меняющимся настроениям одних и тех же людей в течение дня (и своим тоже)
-разнице в памяти о событиях и отношении к ним (между вашей версией событий и чужой, а иногда вы можете помнить и 2 версии сразу)
-появляющимся и исчезающим вещам и многим другим признакам

На какой из веток вы в итоге окажетесь, зависит только от вас, ваших выборов и вовлечения в ту или иную ветку вероятности. Читаем

Британская компания Cambridge Analytica помогла Дональду Трампу выиграть президентские выборы в США с помощью технологий Больших данных и персонально таргетированной рекламы в интернете. До этого та же фирма работала со сторонниками Brexit в Британии, а теперь заключила контракт с французским «Национальным фронтом». Правда ли, что неожиданные исходы голосований в разных странах — не провал социологии, а победа социологии нового типа? Собеседник Радио Свобода Михал Косински, исследования которого косвенно связаны с деятельностью Cambridge Analytica, считает, что это преувеличение, но технологии Больших данных и снижение приватности сулят миру глобальные перемены.

Еще в конце сентября, в разгар выборов, выступая в Нью-Йорке на саммите Concordia, ежегодном мероприятии для влиятельных политиков и бизнесменов со всего мира, основатель Cambridge Analytica Александр Никс рассказывал, как новая технология позволила повысить эффективность кампании соперника Трампа по республиканской номинации Тэда Круза, к началу гонки практически никому не известного кандидата. Никс рассказывал, как, например, людям разного склада характера стоит по-разному преподносить мнение кандидата по поводу закона о свободном распространении оружия: боязливым людям с высоким уровнем нейротизма оружие можно представить как источник безопасности, а богатым консерваторам-экстравертам показать картинку утиной охоты.

Позже Cambridge Analytica помогала уже самому Трампу, причем, по оценкам Никса, за относительно скромное вознаграждение, в общей сложности, порядка 15 миллионов долларов. С помощью анализа данных, которые оставляют в сети все пользователи интернета, специалистам компании удалось найти неочевидные связи и паттерны (например, что люди, предпочитающие машины американского производства, — готовые избиратели Трампа) и использовать их для таргетирования рекламы в интернете, для персонализации посланий, исходящих из штаба республиканского кандидата. Жителям квартала Маленький Гаити в Майями показывали информацию об отказе Хиллари Клинтон участвовать в ликвидации последствий землетрясения на Гаити, афроамериканцам — видео, где Клинтон сравнивает темнокожих мужчин с хищниками. Волонтеры Трампа получили подробный профайл жителей домов, где они собирались вести прямую агитацию.

Сложно сказать, насколько велико влияние, которое работа Cambridge Analytica оказала на исход выборов в США, но эта кампания — не единственный пример, когда в победителях оказываются именно те, кто нанял эту фирму. Так, еще в 2015 году услугами Cambridge Analytica начал пользоваться радикальный сторонник Brexit Найджел Фарадж. Швейцарское издание Das Magasin, недавно опубликовавшее расследование о деятельности Cambridge Analytica (на русском языке его можно прочитать здесь), рассказывает, что теперь компания получила контракт с французским «Национальным фронтом», кроме того, в сотрудничестве заинтересованы некоторые политические силы в Швейцарии, Германии и, возможно, Италии.

Один из героев публикации Das Magasin — Михал Косински, исследователь польского происхождения, в прошлом — заместитель директора Центра психометрии Кембриджского университета, а в настоящее время — доцент Стэнфордского университета США. На протяжении нескольких лет Косински с коллегами по Кембриджу разрабатывали систему, которая на основе активности пользователя в социальной сети составляет подробный психологический профиль человека. Система способна не только описывать особенности характера, но и предсказывать, среди прочего, пол, сексуальную ориентацию, цвет кожи и даже политические предпочтения пользователя.

Швейцарские журналисты рассказывают, что в начале 2014 года к Косински обратился коллега, Александр Коган, который предложил молодому исследователи применить созданную им модель для анализа нескольких миллионов профилей американских граждан по заказу некой компании. Как стало ясно позже, эта компания была связана с Cambridge Analytica. Косински отказался от сотрудничества, но методы, которые Cambridge Analytica применяла в ходе референдума в Британии и президентских выборов в США, как минимум очень напоминают модели, придуманные Михалом Косински.

Радио Свобода дозвонилось Косински в Калифорнию и расспросило его о том, что именно можно сказать о человеке по его «цифровому следу», насколько стоит доверять громким заявлениям Cambridge Analytica, проиграна ли война за приватность и опаснее ли искусственный интеллект Дональда Трампа.

Контекст

Новая роль фейка

10.12.2016

Тролли на чужих выборах

10.12.2016

Эпоха постправды

10.12.2016
— Что такое психометрия? Чем вы занимаетесь как исследователь?

— Сама по себе психометрия — древняя наука, думаю, ей два или три тысячелетия. В сущности, это наука психологических измерений, попыток как можно точнее установить различные психологические аспекты, личность, интеллектуальные способности, счастье, склонность к депрессии и так далее. Традиционно такие измерения производились с помощью опросников, психологических тестов, но относительно недавно я и некоторые другие психометристы поняли, что их можно делать, оценивая цифровой след человека, — и тогда никакие вопросы можно не задавать, никаких опросников и тестов не нужно. И это революционный момент. Важность истории Cambridge Analytica, о которой написало издание Das Magasin, на самом деле не в том, что компания помогла Трампу в предвыборной гонке. Это коммерческая фирма, у них есть технология, они хотят зарабатывать деньги, здесь все ясно. Важно то, что если раньше вы хотели составить чей-то психологический профиль, вы должны были попросить человека заполнить опросник, пройти тест — и испытуемый хорошо понимал, что вот сейчас, в этот самый момент, кто-то измеряет его психологические характеристики. А теперь можно делать то же самое, но человек не узнает, что его самые интимные особенности прямо сейчас кто-то оценивает и измеряет. Достаточно посмотреть на цифровой след: записи в социальных сетях, лайки, историю просмотра страниц в интернете, историю поисковых запросов. На основе этих данных можно составить невероятно точный психологический портрет. С одной стороны, это кажется чем-то пугающим, с другой, в этом может быть и много пользы. Например, какая-нибудь интернет-платформа может предложить наиболее подходящую по вашему характеру и способностям работу или посоветовать фильм, который вам наверняка понравится. Это нормально. Но когда вы открываете вашу страницу в «Фейсбуке» и видите там рекламу, персонально направленную, таргетированную для вас на основе вашего подробного психологического профиля, который был составлен без вашего ведома и согласия, это уже не очень нормально.

— Вот лично вы могли бы составить мой полный психологический профиль, зная только мое имя, на основе следа, который я оставил в интернете?

— Я ученый и просто не стал бы этим заниматься. Если бы вы добровольно захотели помочь моему исследованию и предоставили свои данные, я бы с удовольствием включил их в свою базу данных, анонимизировал и пообещал никогда никому не продавать и не передавать. Но многие компании, конечно, постоянно собирают информацию о вас без спроса и используют ее, например, для таргетированной рекламы.

— Эта информация, конечно, не хранится в одном месте — одной компании известны данные моей геолокации, другой — финансовые транзакции, третьей — лайки в «Фейсбуке». Все это можно собрать воедино?

— Ну, во-первых, это обычно и не нужно. Обычно для построения точного профиля вполне достаточно чего-то одного — ваших интересов в «Фейсбуке», например, или истории посещений страниц из браузера. Во-вторых, компании, собирающие информацию о вас, обычно обмениваются ей друг с другом или просто продают на общем рынке данных. Есть проекты, вроде Acxiom, которые все собирают воедино и продают фирмам типа Cambridge Analyticа. Ты просто можешь прийти и сказать — мне нужны данные на 10 миллионов американцев из такого-то региона, и они эти данные с удовольствием продадут. В-третьих, для того чтобы вести кампанию с личным таргетингом, вовсе необязательно иметь именно индивидуальные данные пользователей. Можно использовать так называемое поведенческое таргетирование. Например, вы не можете попросить «Фейсбук» показать определенную рекламу для всех людей, склонных к определенному типу поведения. Но у вас может быть модель, связывающая этот тип поведения с каким-то психологическим профилем, причем эту модель вы даже могли вполне честно построить — заплатили нескольким десяткам тысяч людей небольшой гонорар за заполнение опросника. И когда модель построена, вы спрашиваете ее: как мне найти эмоциональных экстравертов? Модель отвечает — нет проблем, это те, кто лайкнул такие-то десять книг, такие-то десять фильмов и такие-то десять музыкантов. Теперь вы снова идете в «Фейсбук» со своей рекламой, только вам уже не нужно просить показать ее именно эмоциональным экстравертам, чего «Фейсбук» бы делать не стал. Вместо этого вы просите показать рекламу тем, у кого есть определенный набор лайков. В итоге получается, что у вас не было никаких персональных данных, но вы провели персонально таргетированную рекламу.

— Есть ли компании, которые стремятся составить психологический профиль всего человечества, во всяком случае всех, кто оставляет цифровые следы?

— Вряд ли кто-то мыслит в настолько глобальных категориях, но до некоторой степени этим занимается Facebook, Google, Microsoft, Visa, Mastercard, тот же Acxiom. И все эти данные широко торгуются на рынке.

— То есть где-то на рынке продается, например, и мой психологический профиль, причем невероятно точный. Вы сказали в комментарии для издания Das Magazin, что достаточно всего нескольких лайков в «Фейсбуке», чтобы система узнала вас лучше, чем ближайший друг. Это действительно так?

— Да, об этом было интересное исследование. Достаточно десяти лайков (интересов), чтобы система смогла лучше распознать вашу личность, чем коллега по работе, а по 230-240 лайкам компьютер будет знать о вас больше, чем ваш супруг или супруга.

— Но что именно это значит — знать больше?

— Это значит, что если попросить компьютер заполнить вместо вас психологический опросник, он ошибется меньше, чем ваша жена.

— Это ответы на вопросы вроде «Боитесь ли вы темноты»?

— Да, типичные вопросы психологических опросников. Так что действительно, где-то на рынке можно купить очень точную информацию о вашей личности, в том числе о ваших политических пристрастиях, о вашей религиозности, о вашей сексуальной ориентации, о вашем IQ. Примерно понять, что о вас известно по вашим интересам на «Фейсбуке», можно с помощью сайта Applymagicsauce.com, но это, конечно, далеко не полная картина.

— Давайте обратимся к истории с Cambridge Analytica. Скажите, вы действительно не имеете никакого отношения к этой компании?

— Нет, и никогда не имел. Я услышал о ее существовании из прессы.

— Александр Коган, который, как утверждает издание Das Magazin, предложил Cambridge Analytica технологию психологического профайлинга, был вашим коллегой?

— Да, он был моим коллегой, точнее, он был доцентом на психологическом факультете Кембриджского университета в то время, когда я был там же аспирантом. Но наши пути давно разошлись, он основал небольшую компанию и, насколько я понял из прессы, продавал данные Cambridge Analytica, а я остался в академическом мире.

— Можно ли предположить, что Cambridge Analytica использует разработанные вами модели?

— Я бы сказал, что они используют похожие модели, но, видите ли, чтобы разработать такую модель, не нужно особенно глубокой науки, в этом нет никакой магии. Это может сделать любой человек, у которого есть базовые навыки программирования, немного денег и компьютер, подключенный к интернету, — собственно, именно это и делает проблему такой значительной. Здесь используются самые стандартные статистические методы, ничего особенного. Главная мысль моих публикаций в том, что это легко, важно лишь изменить фокус: для психометрии больше не нужны опросники и тесты, достаточно иметь цифровой след человека. И это дает огромные преимущества, можно улучшить маркетинг, карьерное планирование, методы психологической помощи, много чего еще. Но ту же технологию можно использовать и против людей. Я уверен, что Александр Коган был в курсе моих исследований и, хотя об этом я могу судить только по сообщениям журналистов, он сделал ровно то, что я предлагал, и продал результат компании Cambridge Analytica. Я много раз говорил и явно указывал в своих статьях, что не хотел никого вдохновить на такого рода деятельность, более того, я уверен, что люди занимались цифровым психологическим профайлингом задолго до меня, просто не рассказывали об этом так активно, как Cambridge Analytica. Я как раз призываю разработать политику, процедуры, которые бы определяли этичное использование этой технологии.

— Как вы думаете, Cambridge Analytica действительно могла существенно повлиять на результаты американских президентских выборов?

— Честно говоря, я не знаю. Ясно, что Cambridge Analytica заинтересована в том, чтобы как можно громче трубить о своем успехе, но в конечном итоге результаты выборов определяют не методы Больших данных, а кандидаты, да еще, как теперь особенно хорошо видно, избиратели, не ходящие на выборы. Возможно, деятельность Cambridge Analytica стала той самой последней каплей, которая предопределила окончательный результат, но скорее всего, этого наверняка не знает и сам Александр Никс. С другой стороны, мы должны отдавать себе отчет, что технология есть, и защититься от нее практически невозможно. Вы можете перестать пользоваться «Фейсбуком», но все равно будете писать электронные письма. Решите пользоваться голубиной почтой — не обойдетесь без кредитной карты. Может быть, страны могли бы принимать законы, ограничивающие такие методы, но и это может не сработать. Между прочим, я не знаю наверняка, но слышал, что то, что делали Cambridge Analytica для Трампа, противоречило действующему американскому законодательству, и поэтому непосредственный анализ данных они делали в Британии. Знаете, я ученый, я занимаюсь психометрикой, я не специалист в политике, демократии и свободе, но мне кажется, нам придется принять тот факт, что никакой приватности не останется. Вместо того, чтобы ввязываться в очередную битву за приватность, стоит признать, что уже проиграна война, и лучше озаботиться тем, чтобы мир стал благоприятной средой для человека, лишенного приватности.

— Любопытно, до какой все-таки степени построение психологического профиля, использование персонального таргетинга может повлиять на реальный мир.

— С научной точки зрения об этом рассуждать сложно, потому что сложно ставить эксперименты. То есть если вы торгуете каким-нибудь гелем для душа, вы можете сравнить количество кликов, но оценить, например, эффективность методов Больших данных в политической кампании, которая скорее похожа на продвижение бренда, чем на кампанию по повышению продаж, очень сложно. Мы провели кое-какие эксперименты, не с политиками, потому что я считаю это неэтичным, а с конкретными потребительскими товарами, и получилось, что персональный таргетинг, то есть использование индивидуального рекламного месседжа на основе психологического профиля удваивает эффективность рекламы. И это невероятный результат, обычно борьба идет за повышение эффективности на какие-нибудь три процента, и даже это экономит компаниям сотни миллионов долларов. А тут в два раза!

— Странно, что вы еще не стали миллиардером.

— У меня и так прекрасная жизнь. Кстати, есть много психологических работ, которые доказывают, что для счастья нужно не так уж много денег, ну, надо, конечно, чтобы хватало на отпуск. На самом деле, все, наверное, не так просто, как мне как ученому кажется, просто я готов говорить об этих вещах открыто, а другие работают над реальными проектами, никому ничего не рассказывая.

— Мне идея психологического профайлинга на основе цифрового следа кажется достаточно естественной, уверен, очень многие уже используют ее в рекламе. Наш мир, возможно, уже сильно изменился, просто мы этого пока не особенно замечаем.

— Наверное, и я эти изменения скорее приветствую. У нас были изобретения и пострашнее, чем Большие данные, мы справились с ядерной энергией — как-нибудь справимся и с этим, хотя, наверное, и не без жертв. Как я уже сказал, мне кажется, война за приватность уже проиграна, мы живем в мире постприватности, а значит, стоит вложить усилия в то, чтобы у всех были равные права и возможности, так что и скрывать ничего никому не захочется. Надеюсь, большая толерантность может решить проблему отсутствия приватности.

— Но ведь проблема не только в том, что окружающие узнают все секреты человека и начнут к нему иначе относиться, но и в том, что появился мощный инструмент для манипулирования.

— С этим, по-моему, должно справляться просвещение. Легко манипулировать теми, кто мало знает, кто мало читает, кто мало путешествует. Такому человеку можно сказать, что в Сирии нет никакой войны, да и вообще все сирийцы — чертовы преступники, и он в это с готовностью поверит.

— По-моему, манипулировать можно и образованными людьми, с помощью тщеславия и секса, например.

— Не думаю. Вот вы, наверное, неплохо знаете свою жену, вам ею от этого становится легко манипулировать?

— Не знаю, у меня, пожалуй, просто нет такой цели, но наверняка найдется много людей, которым было бы интересно как можно эффективнее манипулировать мной так, чтобы я пошел и проголосовал, например, за Путина.

— Конечно, найдется, и это все время происходит, вся реклама, весь маркетинг — манипуляция такого рода, и я не вижу, что мы можем с этим поделать. И все же манипулировать образованными, открытыми и счастливыми людьми сложно. А отказываться от «Фейсбука», электронной почты, кредиток уже поздно, да и просто глупо. «Фейсбук» — прекрасная штука, вот я много в своей жизни рассказывал о рисках его использования, но пользуюсь сам, и с удовольствием, и я бы даже за него платил, если бы пришлось.

— Вам ведь, кстати, предлагали работу в «Фейсбуке»?

— Да, это правда. Меня устраивает моя работа в университете, но вообще-то, для человека, занимающегося исследованием поведения и желающего изменить жизнь людей к лучшему, карьера в компании вроде «Фейсбука» или «Гугла» — прекрасный путь. Я придумываю модели и изучаю их, а если бы я работал в «Фейсбуке», я мог бы в действительности с их помощью изменять жизни миллионов людей, и совсем не обязательно им при этом что-то продавать.

— Страшно, что можно парой кликов изменить жизнь миллионов людей.

— Действительно, чтобы повлиять на миллионы людей, раньше нужно было быть авторитарным диктатором, а теперь вы можете быть инженером, работающим в какой-нибудь интернет-компании. Но страшно не это. Все эти алгоритмы — поиск в «Гугле», системы рекомендаций и так далее — основаны на самой простой математике, но она применяется к огромным массивам данных. И в конечном итоге никто не понимает, как все это в сущности работает, даже сами разработчики. Вот в России есть какие-то законы, которые все считают плохими, но это явные законы, которые можно исправить. А компьютерные алгоритмы самообучаются и становятся настолько сложными, что если они работают как-то не так, непонятно, что и где в них исправлять.

— Так ли далеки мы от момента, когда какая-нибудь такая вышедшая из-под контроля, недоступная для нашего понимания система устроит ядерную войну?

— Знаете, пока что у Дональда Трампа куда больше возможностей и шансов уничтожить человечество, чем у Больших данных, но в будущем… Смотрите, есть голуби и муравьи, думаете, они знают, что миром правит человек? Догадываются, что Дональд Трамп может нажать на красную кнопку? Нет, конечно. Стоит помнить об этом, потому что когда миром станет править искусственный интеллект, мы вполне можем этого точно так же не заметить. Мы ведь уже не можем осмыслить и проанализировать те объемы данных, которые сами же и производим, — и нам приходится доверяться компьютеру. Вы можете спросить у машины: можешь что-то предсказать на основе этих данных? Она ответит: да, конечно. Вы спросите: а как ты это делаешь? Она скажет: прости, но ты не поймешь. И все это — уже реальность. Вы знаете, что американские суды используют компьютерные системы, принимая решения об условно-досрочном освобождении заключенных? Компьютеры решают, дать вам кредит или нет. Компьютер сажает на землю самолет, и это здорово, потому что люди легко могут наделать бед. Жизнь 800 пассажиров «Боинга-787» находится в руках компьютера, а не человека, и это сегодняшняя реальность.

Британская компания Cambridge Analytica помогла Дональду Трампу выиграть президентские выборы в США с помощью технологий Больших данных и персонально таргетированной рекламы в интернете. До этого та же фирма работала со сторонниками Brexit в Британии, а теперь заключила контракт с французским «Национальным фронтом». Правда ли, что неожиданные исходы голосований в разных странах - не провал социологии, а победа социологии нового типа? Собеседник Радио Свобода Михал Косински, исследования которого косвенно связаны с деятельностью Cambridge Analytica, считает, что это преувеличение, но технологии Больших данных и снижение приватности сулят миру глобальные перемены.

Еще в конце сентября, в разгар выборов, выступая в Нью-Йорке на саммите Concordia, ежегодном мероприятии для влиятельных политиков и бизнесменов со всего мира, основатель Cambridge Analytica Александр Никс рассказывал, как новая технология позволила повысить эффективность кампании соперника Трампа по республиканской номинации Тэда Круза, к началу гонки практически никому не известного кандидата. Никс рассказывал, как, например, людям разного склада характера стоит по-разному преподносить мнение кандидата по поводу закона о свободном распространении оружия: боязливым людям с высоким уровнем нейротизма оружие можно представить как источник безопасности, а богатым консерваторам-экстравертам показать картинку утиной охоты.

Позже Cambridge Analytica помогала уже самому Трампу, причем, по оценкам Никса, за относительно скромное вознаграждение, в общей сложности, порядка 15 миллионов долларов. С помощью анализа данных, которые оставляют в сети все пользователи интернета, специалистам компании удалось найти неочевидные связи и паттерны (например, что люди, предпочитающие машины американского производства, - готовые избиратели Трампа) и использовать их для таргетирования рекламы в интернете, для персонализации посланий, исходящих из штаба республиканского кандидата. Жителям квартала Маленький Гаити в Майями показывали информацию об отказе Хиллари Клинтон участвовать в ликвидации последствий землетрясения на Гаити, афроамериканцам - видео, где Клинтон сравнивает темнокожих мужчин с хищниками. Волонтеры Трампа получили подробный профайл жителей домов, где они собирались вести прямую агитацию.

Сложно сказать, насколько велико влияние, которое работа Cambridge Analytica оказала на исход выборов в США, но эта кампания - не единственный пример, когда в победителях оказываются именно те, кто нанял эту фирму. Так, еще в 2015 году услугами Cambridge Analytica начал пользоваться радикальный сторонник Brexit Найджел Фарадж. Швейцарское издание Das Magasin, недавно опубликовавшее расследование о деятельности Cambridge Analytica, рассказывает, что теперь компания получила контракт с французским «Национальным фронтом», кроме того, в сотрудничестве заинтересованы некоторые политические силы в Швейцарии, Германии и, возможно, Италии.

Михал Косински

Один из героев публикации Das Magasin - Михал Косински, исследователь польского происхождения, в прошлом - заместитель директора Центра психометрии Кембриджского университета, а в настоящее время - доцент Стэнфордского университета США. На протяжении нескольких лет Косински с коллегами по Кембриджу разрабатывали систему, которая на основе активности пользователя в социальной сети составляет подробный психологический профиль человека. Система способна не только описывать особенности характера, но и предсказывать, среди прочего, пол, сексуальную ориентацию, цвет кожи и даже политические предпочтения пользователя.

Швейцарские журналисты рассказывают, что в начале 2014 года к Косински обратился коллега, Александр Коган, который предложил молодому исследователю применить созданную им модель для анализа нескольких миллионов профилей американских граждан по заказу некой компании. Как стало ясно позже, эта компания была связана с Cambridge Analytica. Косински отказался от сотрудничества, но методы, которые Cambridge Analytica применяла в ходе референдума в Британии и президентских выборов в США, как минимум очень напоминают модели, придуманные Михалом Косински.

Радио Свобода дозвонилось Косински в Калифорнию и расспросило его о том, что именно можно сказать о человеке по его «цифровому следу», насколько стоит доверять громким заявлениям Cambridge Analytica, проиграна ли война за приватность и опаснее ли искусственный интеллект Дональда Трампа.

- Что такое психометрия? Чем вы занимаетесь как исследователь?

Сама по себе психометрия - древняя наука, думаю, ей два или три тысячелетия. В сущности, это наука психологических измерений, попыток как можно точнее установить различные психологические аспекты, личность, интеллектуальные способности, счастье, склонность к депрессии и так далее. Традиционно такие измерения производились с помощью опросников, психологических тестов, но относительно недавно я и некоторые другие психометристы поняли, что их можно делать, оценивая цифровой след человека, - и тогда никакие вопросы можно не задавать, никаких опросников и тестов не нужно. И это революционный момент. Важность истории Cambridge Analytica, о которой написало издание Das Magasin, на самом деле не в том, что компания помогла Трампу в предвыборной гонке. Это коммерческая фирма, у них есть технология, они хотят зарабатывать деньги, здесь все ясно. Важно то, что если раньше вы хотели составить чей-то психологический профиль, вы должны были попросить человека заполнить опросник, пройти тест - и испытуемый хорошо понимал, что вот сейчас, в этот самый момент, кто-то измеряет его психологические характеристики. А теперь можно делать то же самое, но человек не узнает, что его самые интимные особенности прямо сейчас кто-то оценивает и измеряет. Достаточно посмотреть на цифровой след: записи в социальных сетях, лайки, историю просмотра страниц в интернете, историю поисковых запросов. На основе этих данных можно составить невероятно точный психологический портрет. С одной стороны, это кажется чем-то пугающим, с другой, в этом может быть и много пользы. Например, какая-нибудь интернет-платформа может предложить наиболее подходящую по вашему характеру и способностям работу или посоветовать фильм, который вам наверняка понравится. Это нормально. Но когда вы открываете вашу страницу в «Фейсбуке» и видите там рекламу, персонально направленную, таргетированную для вас на основе вашего подробного психологического профиля, который был составлен без вашего ведома и согласия, это уже не очень нормально.

Вот лично вы могли бы составить мой полный психологический профиль, зная только мое имя, на основе следа, который я оставил в интернете?

Я ученый и просто не стал бы этим заниматься. Если бы вы добровольно захотели помочь моему исследованию и предоставили свои данные, я бы с удовольствием включил их в свою базу данных, анонимизировал и пообещал никогда никому не продавать и не передавать. Но многие компании, конечно, постоянно собирают информацию о вас без спроса и используют ее, например, для таргетированной рекламы.

Эта информация, конечно, не хранится в одном месте - одной компании известны данные моей геолокации, другой - финансовые транзакции, третьей - лайки в «Фейсбуке». Все это можно собрать воедино?

Ну, во-первых, это обычно и не нужно. Обычно для построения точного профиля вполне достаточно чего-то одного - ваших интересов в «Фейсбуке», например, или истории посещений страниц из браузера. Во-вторых, компании, собирающие информацию о вас, обычно обмениваются ей друг с другом или просто продают на общем рынке данных. Есть проекты, вроде Acxiom, которые все собирают воедино и продают фирмам типа Cambridge Analyticа. Ты просто можешь прийти и сказать - мне нужны данные на 10 миллионов американцев из такого-то региона, и они эти данные с удовольствием продадут. В-третьих, для того чтобы вести кампанию с личным таргетингом, вовсе необязательно иметь именно индивидуальные данные пользователей. Можно использовать так называемое поведенческое таргетирование. Например, вы не можете попросить «Фейсбук» показать определенную рекламу для всех людей, склонных к определенному типу поведения. Но у вас может быть модель, связывающая этот тип поведения с каким-то психологическим профилем, причем эту модель вы даже могли вполне честно построить - заплатили нескольким десяткам тысяч людей небольшой гонорар за заполнение опросника. И когда модель построена, вы спрашиваете ее: как мне найти эмоциональных экстравертов? Модель отвечает - нет проблем, это те, кто лайкнул такие-то десять книг, такие-то десять фильмов и такие-то десять музыкантов. Теперь вы снова идете в «Фейсбук» со своей рекламой, только вам уже не нужно просить показать ее именно эмоциональным экстравертам, чего «Фейсбук» бы делать не стал. Вместо этого вы просите показать рекламу тем, у кого есть определенный набор лайков. В итоге получается, что у вас не было никаких персональных данных, но вы провели персонально таргетированную рекламу.

Есть ли компании, которые стремятся составить психологический профиль всего человечества, во всяком случае всех, кто оставляет цифровые следы?

Вряд ли кто-то мыслит в настолько глобальных категориях, но до некоторой степени этим занимается Facebook, Google, Microsoft, Visa, Mastercard, тот же Acxiom. И все эти данные широко торгуются на рынке.

То есть где-то на рынке продается, например, и мой психологический профиль, причем невероятно точный. Вы сказали в комментарии для издания Das Magazin, что достаточно всего нескольких лайков в «Фейсбуке», чтобы система узнала вас лучше, чем ближайший друг. Это действительно так?

Да, об этом было интересное исследование. Достаточно десяти лайков (интересов), чтобы система смогла лучше распознать вашу личность, чем коллега по работе, а по 230–240 лайкам компьютер будет знать о вас больше, чем ваш супруг или супруга.

- Но что именно это значит - знать больше?

Это значит, что если попросить компьютер заполнить вместо вас психологический опросник, он ошибется меньше, чем ваша жена.

- Это ответы на вопросы вроде «Боитесь ли вы темноты»?

Да, типичные вопросы психологических опросников. Так что действительно, где-то на рынке можно купить очень точную информацию о вашей личности, в том числе о ваших политических пристрастиях, о вашей религиозности, о вашей сексуальной ориентации, о вашем IQ. Примерно понять, что о вас известно по вашим интересам на «Фейсбуке», можно с помощью сайта Applymagicsauce.com, но это, конечно, далеко не полная картина.

Давайте обратимся к истории с Cambridge Analytica. Скажите, вы действительно не имеете никакого отношения к этой компании?

Нет, и никогда не имел. Я услышал о ее существовании из прессы.

Александр Коган, который, как утверждает издание Das Magazin, предложил Cambridge Analytica технологию психологического профайлинга, был вашим коллегой?

Да, он был моим коллегой, точнее, он был доцентом на психологическом факультете Кембриджского университета в то время, когда я был там же аспирантом. Но наши пути давно разошлись, он основал небольшую компанию и, насколько я понял из прессы, продавал данные Cambridge Analytica, а я остался в академическом мире.

- Можно ли предположить, что Cambridge Analytica использует разработанные вами модели?

Я бы сказал, что они используют похожие модели, но, видите ли, чтобы разработать такую модель, не нужно особенно глубокой науки, в этом нет никакой магии. Это может сделать любой человек, у которого есть базовые навыки программирования, немного денег и компьютер, подключенный к интернету, - собственно, именно это и делает проблему такой значительной. Здесь используются самые стандартные статистические методы, ничего особенного. Главная мысль моих публикаций в том, что это легко, важно лишь изменить фокус: для психометрии больше не нужны опросники и тесты, достаточно иметь цифровой след человека. И это дает огромные преимущества, можно улучшить маркетинг, карьерное планирование, методы психологической помощи, много чего еще. Но ту же технологию можно использовать и против людей. Я уверен, что Александр Коган был в курсе моих исследований и, хотя об этом я могу судить только по сообщениям журналистов, он сделал ровно то, что я предлагал, и продал результат компании Cambridge Analytica. Я много раз говорил и явно указывал в своих статьях, что не хотел никого вдохновить на такого рода деятельность, более того, я уверен, что люди занимались цифровым психологическим профайлингом задолго до меня, просто не рассказывали об этом так активно, как Cambridge Analytica. Я как раз призываю разработать политику, процедуры, которые бы определяли этичное использование этой технологии.

Как вы думаете, Cambridge Analytica действительно могла существенно повлиять на результаты американских президентских выборов?

Честно говоря, я не знаю. Ясно, что Cambridge Analytica заинтересована в том, чтобы как можно громче трубить о своем успехе, но в конечном итоге результаты выборов определяют не методы Больших данных, а кандидаты, да еще, как теперь особенно хорошо видно, избиратели, не ходящие на выборы. Возможно, деятельность Cambridge Analytica стала той самой последней каплей, которая предопределила окончательный результат, но скорее всего, этого наверняка не знает и сам Александр Никс. С другой стороны, мы должны отдавать себе отчет, что технология есть, и защититься от нее практически невозможно. Вы можете перестать пользоваться «Фейсбуком», но все равно будете писать электронные письма. Решите пользоваться голубиной почтой - не обойдетесь без кредитной карты. Может быть, страны могли бы принимать законы, ограничивающие такие методы, но и это может не сработать. Между прочим, я не знаю наверняка, но слышал, что то, что делали Cambridge Analytica для Трампа, противоречило действующему американскому законодательству, и поэтому непосредственный анализ данных они делали в Британии. Знаете, я ученый, я занимаюсь психометрикой, я не специалист в политике, демократии и свободе, но мне кажется, нам придется принять тот факт, что никакой приватности не останется. Вместо того, чтобы ввязываться в очередную битву за приватность, стоит признать, что уже проиграна война, и лучше озаботиться тем, чтобы мир стал благоприятной средой для человека, лишенного приватности.

Что такое ИИ на самом деле? Термин наводит на мысли о научной фантастике, вроде «Терминатора» или «Мира дикого запада», но реальность — намного прозаичнее. «В лучшем случае мы может добиться уровня интеллекта, сопоставимого с интеллектом змеи», — говорит директор Google Эммануэль Можене, который не придает особого значения предостерегающим словам Илона Маска.

В процессе нашумевшего пиар-переворота Саудовская Аравия недавно дала гражданство роботу. В то же время среди прочих основатель «Теслы» Илон Маск предостерегает, что сверхумные компьютеры захватят мир. Возможно, многим, кто слышит термин «искусственный интеллект», в первую очередь в голову приходит какой-нибудь фантастический фильм, вроде «Терминатора» или «Матрицы». Думающее, чувствующее и часто злое компьютерное существо, которое собирается нас уничтожить.

Все это очень далеко от того, как обстоят дела с настоящим ИИ, гораздо более будничным и примитивным. В каком-то смысле термин ИИ вводит в заблуждение. Компьютер не может чувствовать и не осознает собственное существование.

Компьютер может научиться распознавать животных на картинках. Но в то время как человек видит милого котика, компьютер анализирует, как пиксели на картинке складываются по различным схемам и может благодаря этому отличать схему, изображающую кота, от той, что изображает собаку. Но он не понимает и не интересуется тем, что пиксели на самом деле показывают.

«Дело в том, что мы не способны создать интеллект, который мог бы сравниться с человеческим. Фактом остается то, что в лучшем случае мы можем добиться интеллекта на уровне, скажем, змеиного», — говорит Эммануль Можене, руководитель научно-исследовательского подразделения Google в Цюрихе.

Энциклопедия «Британника» определяет ИИ как «способность выполнять задачи, которые обычно связываются с человеческим интеллектом». Это может быть игра в шахматы или постановка правильного диагноза с помощью рентгеновского снимка. Так что под искусственным интеллектом мы подразумеваем не то, что компьютер действительно умный, а то, что он может решать задачи таким образом, что заставляет нас верить в то, что он умный.


В начале в основе ИИ лежало программирование компьютера согласно четким правилами в рамках той сферы, где он должен был проводить анализ. Как оказалось, это хорошо работает в контекстах, которые можно описывать в терминах логики, например, в шахматах. Еще в 1997 году компьютер IBM Deep Blue благодаря четким правилам и огромным мощностям обыграл тогдашнего чемпиона мира Гарри Каспарова.

Но мир не всегда логичен. Анализ фотографий — хороший пример. Если вам надо научить компьютер узнавать изображение кошки, вы даете ему, например, инструкции, что у кошки есть 1) усы, 2) два заостренных уха, 3) два глаза, 4) хвост. Если вы забыли объяснить компьютеру, что не все фотографии делаются анфас, то он потерпит неудачу в случае, если вы покажете ему фотографию, сделанную в профиль, когда видно лишь одно ухо и один глаз.

Так же как и человек, компьютер учится на своих ошибках. Machine learning — машинное обучение — метод, который сейчас используется большинством для создания развитого ИИ. Он подразумевает, что компьютеру дается множество примеров того, что ему предстоит попытаться делать, например, создавать произведения искусства определенного типа, анализировать рентгеновские снимки или водить машину. Затем он должен попробовать сделать это сам. Благодаря тому, что человек рассказывает, где правильно, а где ошибка, компьютер выполняет задание все лучше. Наконец, он начинает делать это так же хорошо или даже лучше, чем лучшие в этой сфере люди.

Мы уже констатировали, что у компьютера (в нашем случае — пока) не может быть чувств. Компьютер не может быть злым, не может радоваться или грустить. Но это не мешает ему уметь распознавать человеческие чувства. Компьютер может видеть, что человек в стрессе, боится или радуется. «Он может даже лучше, чем человек, распознавать чувства. Компьютер, который играет в покер, может не только точно так же, как живой игрок, определять, подает ли противник признаки беспокойства или радости. Он может видеть ваш пульс, анализируя цвет лица», — рассказывает технический директор шведского подразделения IBM Микаэль Хаглунд.

ИИ - по своей сути невероятный зануда. Его можно назвать компьютеризированным ученым.

Компьютер может не хуже лучших врачей анализировать рентгеновские снимки в поисках необычных форм рака, но тот же самый компьютер не в состоянии рассчитать, что у человека может болеть живот из-за килограмма конфет. Это не значит, что компьютер совершенно безнадежен в том, что касается переноса своих знаний из одной области в другую. Компьютер, который научился распознавать кошку, быстрее научится распознавать собаку. А компьютер, который научился диагностировать рак груди по рентгеновскому снимку, быстрее научится находить другие болезни.

Правильное использование машинного обучения может принести большую пользу. Но нужно учитывать, что компьютер, в отличие от человека, не может подвергать сомнению те массы информации, которые ему дают в самом начале. Плохие изначальные данные могут сделать ИИ бесполезным или даже вредным. Известен пример, когда неоднозначный ученый Майкл Косински (Michal Kosinski) из Стэндфордского университета в США хотел показать, что его ИИ может определять гомосексуальность и гетеросексуальность людей лишь по фотографиям.

Все дело было в том, что Майкл Косински и его коллеги загружали фотографии с различных сайтов знакомств, на которых люди делали все, чтобы казаться как можно более привлекательными для своей целевой группы. Согласно масштабной критике, которой подвергся эксперимент, компьютер отлично узнавал стиль одежды, но если бы тот же самый эксперимент был проведен с совершенно нейтральными фотографиями, он бы потерпел неудачу.

Даже если нам и трудно поверить, что компьютер сегодня может испытывать чувства или иметь сознание, есть множество примеров, когда с роботами обращаются, как с людьми. Из американской армии приходит множество отчетов о том, как у солдат развивались сильные чувства не только к живым товарищам-людям, но и к используемым в боевых действиях роботам. Недавно государство Саудовская Аравия сделало еще один шаг вперед и выдало роботу по имени София гражданство. София может сносно общаться с людьми и даже выглядеть удивленно или радостно в зависимости от контекста. Но требуется не так уж много времени, чтобы понять, что ее интеллект — далеко не человеческий. Что касается предупреждений Илона Маска, то они не слишком беспокоят Эммануэля Можене. «Я очень уважаю Илона, но здесь он ошибается».

Статьи по теме: