Оставьте "гипотезу Терминатора" по отношению к развитию искусственного интеллекта в прошлом

2019.03.22 | 12:05

AMP logoAMP-версия

Я довольно устал от того, что основные СМИ постоянно описывают машинное обучение или искусственный интеллект в терминах фильмов «Терминатор», который был выпущен в прокат более трех десятилетий назад. Так называемая «гипотеза Терминатора» или «Гипотеза Скайнета» была постоянной в современном мышлении о развитии искусственного интеллекта, популяризируемой даже людьми с большим авторитетом и влиянием, такими как Стивен Хокинг или Элон Маск, которые предупреждают об угрозе человечеству от роботов-убийц.

 

Реальность с точностью до наоборот. Предприятия вкладывают средства в передовую автоматизацию, аналитику, управление процессами и целый ряд других улучшений, а не в машины, способные развивать сознание. Даже когда люди отдают предпочтение искусственному интеллекту, это происходит в контексте контролируемых процессов, а не автономных решений или процессов, которые могут привести к войне. Эти вещи случаются только в кино.

 

Машинное обучение теперь способно к растущему диапазону задач. Будут они хорошими или плохими, будет зависеть от людей, но что становится яснее, так это необходимость междисциплинарного подхода, сочетающего технологии с более гуманистическими дисциплинами.

 

Многопрофильный центр искусственного интеллекта Массачусетского технологического института, обнародованный пять месяцев назад, теперь присоединяется к аналогичной инициативе на другом побережье Соединенных Штатов в Стэнфорде, подтверждая интерес к целостным и множественным подходам к дисциплине, которая преобразовывает наш мир. Становится все более очевидным, что команды, занимающиеся наукой о данных, должны включать в себя специалистов общего профиля и гуманистов, способных обеспечить более широкий подход. Гипотеза об ошибке из-за чрезмерной технической или математической направленности в настоящее время едва ли заслуживает доверия: большинство разработок будет проверено с помощью такого подхода, и даже если ошибки будут допущены, а они будут, последствия не будут апокалиптическими. Опять же, это просто голливудский материал. Круто, интересно и выгодно с точки зрения развлечений.

 

ЧИТАЙТЕ ТАК ЖЕ: Зарядный коврик Apple AirPower появится в продаже уже через несколько дней

 

Точно так же, как люди ошибочно полагают, что цифровое преобразование - это вопрос технологии, когда речь идет также о культуре и людях, многие разработки в области машинного обучения и искусственного интеллекта потерпят неудачу, поскольку они не учитывают другие проблемы. Понимание этого будет иметь основополагающее значение для многих профессионалов широкого спектра, которые будут интегрированы в эти междисциплинарные команды, которые должны будут не только иметь четкие идеи и знания об искусственном интеллекте, но также предлагать разумные, заслуживающие доверия и серьезные сценарии, которые не начинаются. Исходя из причудливых гипотез, таких как «машина обретет сознание, хочет убить нас всех».

 

Машинное обучение - это область, которая началась очень давно. Компьютеры были очень ограничены тогда. Теперь машинное обучение стало намного мощнее благодаря почти бесконечным ресурсам, доступным в облаке. Но даже если речь идет о продвинутой автоматизации, а не о машинах, развивающих сознание. Компьютер, каким бы большим он ни был, с алгоритмом машинного обучения никогда не будет мозгом и не сравним с мозгом любого типа. Все эти запугивания в отношении «гипотезы Терминатора» происходят из чистого, простого невежества, и вы быстро понимаете, что в первый раз пытаетесь обучить алгоритм.

 

Машина и мозг работают совершенно по-разному. При современном состоянии техники машины не способны подражать мозгу. Алгоритмы имеют дело с очень конкретными ситуациями и контекстами, и вы не можете просто накапливать множество ситуаций, пока у вас не будет полностью функциональный мозг. Современные машины не могут развить совесть. Совесть - это не то, что вы можете построить таким образом: машины будут играть в игры, водить машину, находить аномалии и многое другое, на самом деле, они уже делают это, но в нынешнем состоянии техники они не будут развивать совесть. Они не станут мозгами, а сравнение с мозгом просто смешно.

 

Это область, которая будет привлекать все больше инвестиций и внимания в ближайшие годы. Это, без сомнения, одна из технологий, обладающих наибольшей способностью позитивно влиять на нашу жизнь, вместо того, чтобы противостоять нам и уничтожать нас. Пожалуйста, перестаньте бояться ИИ и машинного обучения. Как и с любой технологией, машины будут делать то, что обучают, и они будут делать это, в некоторых случаях, лучше, чем люди. Роботы-убийцы? Это легко, и поэтому здесь важны этические принципы. Но даже если кто-то разрабатывает роботов-убийц, такие роботы не вырастят совесть, не разовьют мозг и не поймут, кто они и чем занимаются. Это принадлежит чёртовой научной фантастике.

 

Чем раньше мы начнем говорить об искусственном интеллекте на основе достоверных гипотез междисциплинарных команд и перенесем «гипотезу Терминатора» в область научной фантастики, тем лучше для всех.

Оцените материал
(0 голосов)

Оставить комментарий