Теоретики и футурологи о рисках искусственного интеллекта
Содержание статьи:

    Опасность включает в себя уже то, настолько глубоко укоренился сегодня искусственный интеллект во всех существующих отраслях, начиная от медицины, транспорта и заканчивая теми устройствами, которые мы используем каждый день. Эксперименты в таких областях, как синтетическая биология, нанотехнологии, медленно создают разрыв между техническим прогрессом и нашей способностью прогнозировать последствия.

    Письмо Стивена Хокинга

    В апреле британский физик Стивен Хокинг, наряду с другими ведущими учеными опубликовали открытое письмо на имя всего человечества о рисках, связанных с развитием искусственного интеллекта. Хокинг предупредил, что создание суперинтеллектуальных машин может быть не только крупнейшим прорывом в истории человечества, но и последним временем существования человека как вида живых существ.

    Стивен Хокинг

    Другой ученый Даниэль Давей, свидетельствует о том, что такой искусственный интеллект может принимать формы, которые мы не можем даже придумать. Например, можно разработать определенные решения в области нанотехнологий, в итоге машинный разум буквально сможет буквально контролировать сознательные существа на молекулярном уровне.

    Рей Курцвейл
    Футурологи в лице Рэя Курцвейла считают, что наша цивилизация находится в одном шаге от достижения некой странной истины – машины будут умнее, чем люди.

    Если искусственный интеллект получит возможность самостоятельного развития, то будет непрерывно создавать все лучшие и умные версии себя, что вызовет настолько быстрый технический прогресс, который наш человеческий интеллект не сможет понять.

     

    Суперкомпьютеры с умом и невероятное количество данных

    Человеческая биологическая эволюция достаточно медленна и вскоре человечество не сможет идти в ногу с темпами  развития техники, а в течение нескольких лет мы будем далеко позади интеллектуальных машин. Доктор Ник Бостром, директор Института будущего человечества, после того как философы исследовали наибольшие риски, связанные с развитием искусственного интеллекта утверждает, что один из так называемых суперкомпьютеров станет первой машиной, интеллектом которой является человек. 

    Суперкомпьютер

    Различные интеллектуальные системы вводятся в нашу повседневную жизнь, что делает нас все дальше друг от друга, и увеличивает вероятность того, что машины станут главенствовать над человеком. Даниэль Дьюи также утверждает, что риском развития искусственного интеллекта является появление побочных эффектов. По его мнению, искусственный интеллект, для того, чтобы выполнять свою работу, может непреднамеренно привести к нашей гибели, например, используя все доступные сырьевые материалы, которые нам необходимы для функционирования.

    Все может быть даже хуже, когда умная система посчитает, что само человечество представляет собой угрозу для успеха миссии, таким образом, для нашей же безопасности решит нас удалить. Другие футурологи считают, что уничтожение человечества может быть результатом, конкурирующих между собой за господство искусственных Сверхразумов.

    С другой стороны, научный фантаст Чарльз Стросс утверждает, что искусственный интеллект будет построен исключительно как инструмент, поэтому угроза зависит только от цели, которую мы ему даем.

    Этика в развитии искусственного интеллекта

    Исследования ученых института будущего человечества в 2012 году показали, что так называемый сильный искусственный интеллект может возникнуть к 2040 году. Это будет машина, способная осуществлять все интеллектуальные задачи, на которые способны люди. Но все эти мысли о страшном цифровом суперинтеллекте, который решит вдруг уничтожить человечество имеют свои преимущества. Благодаря этому ученые совместно работают над тем, чтобы обеспечить безопасность развития умных машин в будущем, уделяя внимание их этичному поведению.

     


      


    Информация:

    О проекте     Контакты     Вакансии


    Информация:

    © ledigital - информационное издание. Учредитель: ООО «Бренд Девелопмент». 


    Спецпроекты:

    Лекторий    Курсы    Партнерам



    Предложить интересный материал