«…всякий вопрос может быть научным, если на него рано или поздно будет дан ответ. К «ненаучным» же относятся все те вопросы, которые остаются безответными. Но человек постепенно разгадывает некоторые загадки такого рода…»
Константин Циолковский
«Теория космических эр»
Я осознаю, что выдвигаемые гипотезы для многих современных исследователей являются «не научными», поэтому их широко и не обсуждают.
АКСИОМА #1.
Понятие «искусственный интеллект» обязательно подразумевает наличие некоего естественного (не искусственного, т.е. эволюционного) интеллекта, который его создал (на самом-самом начальном этапе его создания).
ГИПОТЕЗА #1.
Практически все Существа и Сущности Мироздания представляют собою огромнейший «зоопарк» объектов искусственного интеллекта.
Огромнейшее их разнообразие по параметрам длительности и качества эволюционного развития приводит к тому, что более развитые Существа и Сущности для удовлетворения своих нужд и достижения поставленных ими целей постоянно вносят изменения (корректируют) менее развитые. Смею предположить, что если эти изменения будут осуществляться на уровне операционной системы изменяемых объектов, то можно предположить, что Существа и/или Сущности, обладавшие ранее исключительно эволюционным интеллектом, постепенно превратятся в Существа и/или Сущности, функционирующие на основе искусственного интеллекта (ИИ).
В качестве примера: люди создают новые виды животных и растений для удовлетворения самых разнообразных своих потребностей. Эти животные и растения в самом ближайшем будущем постепенно превратятся в своеобразные биоустройства с искусственным интеллектом (ИИ), тела которых построены на основе программируемой органической материи.
Очень простая и очень сложная статья… Я долго думал, как описать некие трудноосознаваемые явления приРоды, чтобы изложение осознанного мною позволило практически любому желающему понять саму суть данного явления… Данная статья пишется и непрерывно переписывается мною уже второй месяц… Решил наконец-то остановиться… Как получилось — судить читателям…
Мысленный эксперимент №1 (проявление современных объектов «нашего» Мира)
Представим себе фотографии автомобилей, сделанные разными фотографами, в разное время суток, в разное время года, в разных местах планеты Земля, во время движения и во время стоянки, во время пожара…. Выглядеть фотографии могут вот так:
Большинство алгоритмов искусственного интеллекта пока ещё создается людьми. Но ведь у каждого человека есть «своя точка зрения» на любое событие, действие, предмет… Т.е., все разработчики этих алгоритмов — источник «своих мнений», предвзятости, предубеждений, ошибок… и всё это постепенно переходит ко всем устройствам ими создаваемым в виде алгоритмов их функционирования… Но даже в случае создания алгоритма, функционирующего «без предубеждений», обучаться он будет на данных, собранных и систематизированных некими поисковыми машинами типа Google. А что эти машины собрали и систематизировали? Правильно, предубеждения всех людей нашей планеты, имеющих доступ в сеть… А как тогда в таком случае доверять искусственному интеллекту лечить людей, к примеру?
Что необходимо срочно делать в сложившейся ситуации и к чему она может привести в самое ближайшее время? Именно на эти и подобные им вопросы пытается ответить автор данной статьи — Илья Хель (Источник: hi-news.ru)
«На протяжении нескольких лет в 1980-х годах абитуриентов Медицинской школы больницы Святого Георгия в Лондоне отбирали, используя высокотехнологичный метод. Компьютерная программа, одна из первых в своем роде, просматривала резюме, выбирая из всех заявок порядка 2000 кандидатов в год. Программа анализировала записи о поступлениях, изучая характеристики успешных заявителей, и корректировалась до тех пор, пока ее решения не совпадали с мнением приемной комиссии.
Однако программа научилась находить больше, чем хорошие оценки и признаки академических достижений. Через четыре года после реализации программы два врача в больнице обнаружили, что программа, как правило, отвергает женщин-претендентов и лиц с неевропейскими именами, независимо от их академических достоинств. Врачи обнаружили, что порядка 60 претендентам каждый год просто отказывали в собеседовании из-за их пола или расы. Программа включала гендерные и расовые предубеждения в данные, используемые для ее обучения — по сути, научилась тому, что врачи и иностранцы не лучшие кандидаты в доктора.
Тридцать лет спустя мы столкнулись с аналогичной проблемой, но программы с внутренними предубеждениями теперь шире распространены и принимают решения с еще более высокими ставками. Алгоритмы искусственного интеллекта, основанные на машинном обучении, используются повсюду, начиная с правительственных учреждений и заканчивая сферой здравоохранения, принимая решения и делая прогнозы, основанные на исторических данных. Изучая закономерности в данных, они также поглощают и предубеждения в них. Google, например, показывает больше рекламы низкооплачиваемой работы женщинам, чем мужчинам; однодневная доставка Amazon минует негритянские кварталы, а цифровые камеры с трудом распознают лица не белого цвета.
Трудно понять, является ли алгоритм предвзятым или справедливым, и так считают даже компьютерные эксперты. Одна из причин заключается в том, что детали создания алгоритма часто считаются запатентованной информацией, поэтому их тщательно охраняют владельцы. В более сложных случаях алгоритмы настолько сложны, что даже создатели не знают точно, как они работают. Это проблема так называемого «черного ящика» ИИ — нашей неспособности увидеть внутреннюю часть алгоритма и понять, как он приходит к решению. Если оставить его запертым, наше общество может серьезно пострадать: в цифровой среде реализуются исторические дискриминации, с которыми мы боролись много лет, от рабства и крепостничества до дискриминации женщин.
Эти беспокойства, озвученные в небольших сообществах информатиков ранее, теперь набирают серьезный оборот. За последние два года в этой области появилось довольно много публикаций о прозрачности искусственного интеллекта. Вместе с этой осведомленностью растет и чувство ответственности. «Могут ли быть какие-нибудь вещи, которые нам не стоит строить?», задается вопросом Кейт Кроуфорд, исследователь в Microsoft и соучредитель AI Now Insitute в Нью-Йорке.
«Машинное обучение наконец-то вышло на передний план. Теперь мы пытаемся использовать его для сотен различных задач в реальном мире», говорит Рич Каруана, старший научный сотрудник Microsoft. «Вполне возможно, что люди смогут развернуть вредоносные алгоритмы, которые значительно повлияют на общество в долгосрочной перспективе. Теперь, похоже, внезапно все поняли, что это важная глава в нашей области».
«Мусор на входе — мусор на выходе» (англ. Garbage In, Garbage Out, GIGO) — принцип в информатике, означающий, что при неверных входящих данных будут получены неверные результаты, даже если сам по себе алгоритм правилен. В русскоязычной культуре аналогом принципа является выражение «Что посеешь — то и пожнёшь». Это выражение обычно применяется в отношении компьютерных программ или может использоваться для описания человеческих ошибок, вызванных недостатком, неточностью или ложностью исходных данных. Иными словами, если входящая информация включает в себя ошибки, то в результате прохождения через некую систему, скорее всего, будут получены искажённые выводы…
«Хотя концепция «мусор на входе — мусор на выходе» была известна во времена Чарльза Беббиджа (1864) и даже раньше, первым этот термин ввёл Джордж Фьючел / George Fuechsel, программист, использовавший GIGO как обучающий метод в конце 1950-х годов. Следует отметить: Фьючел употреблял термин, чтобы подчеркнуть, что «мусор на выходе» не обязательно является результатом «мусора на входе», а может быть обусловлен самим продуктом…»
«Лучший способ избежать «мусора» на выходе — не дать ему попасть на вход.»
Уильям Лидвелл, Критина Холден, Джил Балтер, Универсальные принципы дизайна, СПб, «Питер», 2012 г., с.112.
В каком направлении будет развиваться искусственный интеллект и любые компьютеризированные устройства, им оснащённые, покаещё зависит от людей, которые его создают. А Создатели (Творцы) этих устройств и алгоритмов определяют наше с вами будущее и будущее наших детей исключительно по «своему образу и подобию».
А хотим ли мы жить в Мире, созданному по «их образу и подобию?»
А хотим ли мы, чтобы наши дети жили в Мире, созданному по «их образу и подобию?»
Задумайтесь…
Может пора уже нам организовывать специальные «отряды сопротивления»…
Как бы не опоздать…
Для справки:
Эссе (из фр. essai «попытка, проба, очерк», от лат. exagium «взвешивание») — литературный жанр, прозаическое сочинение небольшого объёма и свободной композиции, которое выражает индивидуальные впечатления и соображения автора по конкретному поводу или предмету и не претендует на исчерпывающую или определяющую трактовку темы (в пародийной русской традиции «взгляд и нечто»). В отношении объёма и функции граничит, с одной стороны, с научной статьёй и литературным очерком (с которым эссе нередко путают), с другой — с философским трактатом. Эссеистическому стилю свойственны образность, подвижность ассоциаций, афористичность, нередко антитетичность мышления, установка на интимную откровенность и разговорную интонацию. Некоторыми теоретиками рассматривается как четвёртый, наряду с эпосом, лирикой и драмой, род художественной литературы».
Технология «Face ID» пришла на смену прежней технологии идентификации и авторизации людей при помощи отпечатка пальца (Touch ID). Исследуем перспективы развития данной технологии, с учётом того, что любая новая технология, появившаяся в руках людей, первоначально находит своё применение в военно-промышленном комплексе.
Технологии идентификации людей по отпечаткам пальцев, скану сетчатки глаза или анализу ДНК обладают практически 100% достоверностью идентификации, но не всегда удобны в использовании. Ведь осуществление этих операций требует физического доступа к телу человека и практически всегда требуется уведомление человека о проведении его идентификации третьей стороной.
Представители же современной власти давно мечтали получить инструмент 100% идентификации людей без их ведома. Миллионы круглосуточно работающих на улицах крупных городов видеокамер стали востребованы только сегодня, так как до вчерашнего дня не существовало технологий, позволяющих в режиме онлайн качественно идентифицировать людей. Именно качественно. Многие компании на протяжении более 40 лет активно разрабатывают автоматизированные, а сейчас и автоматические системы распознавания человеческих лиц: Smith & Wesson (система ASID – Automated Suspect Identification System); ImageWare (система FaceID); Imagis, Epic Solutions, Spillman, Miros (система Trueface); Vissage Technology (система Vissage Gallery); Visionics (система FaceIt).
Но технология «Face ID» отличается от иных подобных технологий принципиально. Она позволяет 100% идентифицировать человека не только днём, но и в темноте, а также при наличии грима на его лице (наличии наклеенных усов, бороды и волос…), в головном уборе и так далее и т.п. Благодаря её установке на миллионы смартфонов iPhone X компании Apple, технология будет отлажена в течение считанного времени.
А что нас ждёт дальше?
Любые технологии — это технологии двойного назначения. Их можно применять как в интересах всего человечества, так и в интересах маленькой групки людей, которая получит доступ к её реализации и использованию.
Предоставленное читателям моего блога видео — больше, чем спекуляция. Это видео демонстрирует результат милитаризации только одной из технологий, которыми мы уже обладаем, технологии «Face ID».
У нас пока ещё есть возможность предотвратить негативные тенденции развития, но окно наших возможностей закрывается очень быстро…