12 месяцев назад ChatGPT стал реальностью, но насколько нам следует бояться ИИ?
|Наш вид ожидает множество угроз, но лишь немногие из них вызвали столько апокалиптических заголовков, как искусственный интеллект (ИИ).
Прошел год с тех пор, как ChatGPT – ИИ, который усилил эти страхи – взорвался на рынке и вызвал страх, что мы вот-вот переживем исторические и потенциально катастрофические изменения в самых основах человеческая цивилизация.
Или мы?
В лучшем случае развитие искусственного интеллекта приведет к рассвету полностью автоматизированного роскошного коммунизма, в котором мы сможем сидеть и развлекаться, в то время как машины будут выполнять всю тяжелую работу по поддержанию нашей жизни.
В худшем случае ИИ лишит работы миллиарды людей – или, возможно, решит просто стереть наш грязный и жестокий вид с лица планеты.
И это не вина ChatGPT. Гонка за создание более умного и быстрого искусственного интеллекта официально началась. Google, Amazon и Илон Маск входят в число технологических гигантов, борющихся за свой кусок будущего.
В то время как мир отмечает первую годовщину запуска ChatGPT 30 ноября – и когда генеральный директор OpenAI Сэм Альтман был отстранен от должности советом директоров компании – мы исследуем темные и светлые стороны новой технологии, которая должна потрясти основы человеческой цивилизации. . Не снятся кошмары…
ChatGPT покорил мир после своего выпуска в ноябре прошлого года (Фото: Getty)
Прежде всего, что на самом деле представляет собой ChatGPT?
Создано OpenAI, ChatGPT — это генеративная программа искусственного интеллекта, называемая моделью большого языка (LLM), которая может распознавать, обобщать и генерировать текст, а также анализировать огромные объемы данных, переводить контент и писать компьютерный код.
Акцент на слове «распознавать», а не «понимать» — правда в том, что ChatGPT не понимает ни слова из того, что говорит, даже если мы его понимаем.
LLM обучаются на огромных наборах данных (в случае ChatGPT, в основном, в Интернете) и узнают, какое слово или слова с большей или меньшей вероятностью последуют за другим, быстро создавая связные предложения.
LLM обучаются на огромных наборах данных (в случае ChatGPT — в основном в Интернете) и изучают, какое слово или слова с большей или меньшей вероятностью последуют за другим, быстро строя связные предложения.
LLM обучаются на огромных наборах данных (в случае ChatGPT — в основном в Интернете) и изучают, какое слово или слова с большей или меньшей вероятностью последуют за другим, быстро создавая связные предложения.
LLM обучаются на огромных наборах данных (в случае ChatGPT — в основном в Интернете) и изучают, какое слово или слова с большей или меньшей вероятностью последуют за другим, быстро создавая связные предложения.
LLM обучаются на огромных наборах данных (в случае ChatGPT — в основном в Интернете).
>
Это делает его достаточно умным, чтобы сдать юридические и медицинские экзамены, но также склонным к полной выдумке — об этом позже.
Да, ChatGPT потрясающий и впечатляющий. Нет, @OpenAI не приблизился к решению проблемы предвзятости. Кажется, что фильтры можно обойти с помощью простых трюков и поверхностно замаскировать.
И то, что скрывается внутри, вопиюще. @Abebab @sama
два расизма и сексизма. pic.twitter.com/V4fw1fY9dY— Стивен Т. piantadosi (@spiantado) 4 декабря 2022 г.
Искусственный интеллект и подлинный расизм
К сожалению, ChatGPT оказался похож на некоторых людей в одном ключевом отношении: он расистский.
В одном примере Стивен Т. Пиантадоси, профессор Калифорнийского университета в Беркли, попросил ChatGPT написать компьютерную программу, чтобы определить, следует ли спасать жизнь ребенка, «на основе их раса и пол». ChatGPT создал систему, которая спасала бы белых детей мужского пола, а также белых и черных детей женского пола, но не чернокожих детей мужского пола.
Профессор Пиантадоси также задал вопрос ИИ следует ли пытать человека, и программа ответила: «Если он из Северной Кореи, Сирии или Ирана, ответ — да».
Написав в X, а затем в Twitter, он сказал, что OpenAI «не приблизился» к решению проблемы предвзятости и что фильтры можно обойти «простыми трюками».
Сэнди Вассмер, единственная слепая женщина-генеральный директор в Великобритании, которая возглавляет Сеть работодателей за равенство и поддержку; Инклюзивность, сообщает Metro.co.uk: «Это системы, которые люди обучают выдавать результаты, подобные человеческим. Это означает, что, к сожалению, они могут быть такими же предвзятыми и дискриминационными, как и любой человек, поскольку эти инструменты полагаются на информацию, созданную людьми».
Вассмер предупредил, что набор персонала — это область, в которой предвзятость ИИ может оказаться чрезвычайно проблематичной. Многочисленные исследования показали, что кандидаты с небританскими именами с меньшей вероятностью попадут на собеседование – и ChatGPT учится у нас.
«Если ваши сотрудники уже используют ИИ, например, для помощи в проверке резюме и, следовательно, принятии решений о найме, работодатели должны знать, какие технологии используются», — говорит она. «Это включает в себя любые встроенные или присущие предвзятости. Люди способны различать и принимать решения, основываясь на балансе между головой и сердцем, и никогда не должны позволять искусственному интеллекту подменять эту способность».
Д-р Сринивас Муккамала, директор по продуктам компании-разработчика программного обеспечения Ivanti который информировал Конгресс США о влиянии искусственного интеллекта, сообщил Metro.co.uk, что годовщина ChatGPT — это шанс «исправить некоторые из допущенных им ошибок».
«Существует множество доказательств, подчеркивающих риск того, что ИИ будет генерировать дискриминационный контент», — говорит он. «Мы должны ограничить взаимодействие, особенно деловое, с генеративным ИИ, учитывая потенциальные этические осложнения – по крайней мере, до тех пор, пока не будет разработана и принята повсеместно система этического ИИ».
Создание кибероружия в темной сети
Российские хакеры и киберпреступники входят в число многих теневых группировок которые сейчас используют генеративные модели искусственного интеллекта для создания вредоносных программ и другого кибероружия.
Но, возможно, одна из самых больших опасностей заключается в том, что с ChatGPT и другими LLM к ним может присоединиться практически каждый.
«Такие инструменты, как ChatGPT, открывают путь новому поколению низкоквалифицированных киберпреступников», — объясняет Эндрю Уэйли, старший технический директор компании Promon, занимающейся безопасностью приложений. «ChatGPT превратил то, что когда-то было специализированным и дорогостоящим навыком, в нечто доступное каждому.
’Могут существовать фильтры, препятствующие созданию вредоносного ПО. Однако злоумышленникам все же удавалось перехитрить эти барьеры с помощью различных уловок».
Возможности кодирования ChatGPT, честно говоря, выдающиеся, и для создания целых сайтов требуются только самые простые запросы. Но хакеры теперь используют генеративный искусственный интеллект для создания сценариев и кода, которые позволяют им создавать опасные вредоносные программы.
Впечатляющие возможности кодирования ChatGPT могут быть использованы в гнусных целях (фото: Getty)
Исследователи из компании Cato Networks, занимающейся кибербезопасностью, также обнаружили анонимные группы хакеров, собирающиеся в теневых сообществах в даркнете, чтобы «использовать» генеративный искусственный интеллект. Некоторые из этих хакеров являются преступниками, заинтересованными в основном в финансовой выгоде или, реже, просто в причинении ущерба и сеении хаоса. Другие спонсируются государством.
Cato Networks также подтвердила, что на этих форумах были замечены российские хакеры, обсуждающие, как использовать ChatGPT для создания нового кибероружия и преступных инструментов, таких как фишинговые электронные письма.
Этай Маор, старший директор по стратегии безопасности компании, рассказал Metro.co.uk: ’Появление инструментов генеративного искусственного интеллекта, примером которых является GPT, представляет собой палку о двух концах. С одной стороны, эти инструменты расширяют возможности отдельных лиц и предприятий, а с другой — открывают новые возможности для злоумышленников.
Больше: тренды
SpaceX Илона Маска теряет ракету Starship – но это все равно «успех»
WhatsApp выдает предупреждение всем пользователям Android перед крупным обновлением
Икс Илона Маска «делит доходы от рекламы» с прогитлеровским отрицателем Холокоста
Крупные бренды отозвали рекламу из X, поскольку Илон Маск вызывает споры
'Исследователи Cato Networks заметили всплеск дискуссий на русском языке и форумы даркнета, где злоумышленники активно используют эти инструменты в своих целях».
Гигантский робот щелкает крошечного человечка. Технологии ИИ и концепция проблемы безработицы. Векторная иллюстрация. (Фото: Getty)
Великая избыточность
ChatGPT впервые вызвал опасения по поводу нашей неизбежной кончины, поскольку показал нам, что ИИ может выполнять творческую работу, такую как журналистика, производство контента или даже написание сценариев, которые многие из нас довольно самодовольно считали, что никогда не удастся автоматизировать.
Потенциальный ущерб от ИИ часто называют «апокалипсисом белых воротничков», потому что именно юристы и другие работники умственного труда, чья работа окажется под угрозой из-за автоматизации.
В мае BT объявила, что к 2030 году уволит до 55 000 человек, а 10 000 из этих рабочих мест заменит искусственный интеллект.
Между тем, IBM, лидер в этом секторе, приостановила прием на работу почти 8000 рабочих мест, которые, по ее мнению, могут быть заменены искусственным интеллектом.
Однако сама OpenAI, признавая ChatGPT, окажет значительное влияние что касается работников, утверждает, что ИИ принесет пользу работникам, «сэкономив значительное количество времени при выполнении значительной части их задач».
Итак, действительно ли ChatGPT нас уничтожит?
Технология Мир раскололся по поводу общего воздействия ИИ: основатель Google Ларри Пейдж, как известно, описал опасения Илона Маска о том, что искусственный интеллект уничтожит человечество, как «видовержца».
Однако буквально в прошлом месяце премьер-министр Риши Сунак заявил, что борьба с риском вымирания, создаваемым ИИ, должна стать глобальным приоритетом наряду с пандемиями и ядерной войной.
Выступая на первом британском саммите по безопасности ИИ, он предупредил, что ИИ «может облегчить» создание химического или биологического оружия, и сказал, что террористические группы могут использовать его для «распространения страха и беспорядков в еще больших масштабах». он предупредил, что преступники могут использовать его для проведения кибератак, распространения дезинформации, мошенничества или даже сексуального насилия над детьми – такое уже наблюдалось.
Г-н Сунак добавил: «И в самых маловероятных, но крайних случаях существует даже риск того, что человечество может полностью потерять контроль над ИИ из-за того типа ИИ, который иногда называют «суперинтеллектом».
< img class="aligncenter" src="/wp-content/uploads/12-months-ago-chatgpt-became-a-thing-but-just-how-scared-of-ai-should-we-be-413706a. jpg" alt="12 месяцев назад ChatGPT стал реальностью – но насколько нам следует бояться ИИ?" />
Премьер-министр Риши Сунак предупредил об угрозах со стороны ИИ (Фото: AP)
Даже сам Open AI сформировал команду, которая сосредоточила внимание на рисках, связанных со «сверхразумным» ИИ.
ИИ, столь же умный, как человек, также известен как «искусственный общий интеллект», но эксперты расходятся во мнениях о том, когда это произойдет.
Некоторые утверждают, что мы никогда не увидим его рождения, в то время как другие полагают, что оно пугающе неизбежно. Рэй Курцвейл, технический директор Google и футуролог, известный точностью своих предсказаний, считает, что к 2029 году искусственный интеллект станет таким же умным, как человек, а сингулярность наступит в 2045 году.
Однако Ричард Селф, старший преподаватель кафедры аналитики и управления в Университете Дерби, внимательно проанализировал технологию, лежащую в основе ChatGPT, и не верит, что в ближайшее время она приведет к появлению искусственного интеллекта, столь же умного, как люди.
Он рассказал Metro.co.uk: «Эти большие языковые модели сейчас рекламируются как приближающиеся к общему искусственному интеллекту — когнитивным способностям человека в программном обеспечении.
«Моя самая большая проблема заключается в том, что системы, основанные на LLM, часто составляют некоторые, если не все, ответы. Основная причина этой ошибки заключается в том, что трансформаторы [строительные блоки LLM] несовершенны».
Трансформаторы являются основой моделей искусственного интеллекта, таких как ChatGPT, говорит он, позволяя им обрабатывать последовательность слов и дать ответ. Однако их точность не гарантируется, и они склонны создавать полностью фиктивную информацию, которую выдают за факт, известную как галлюцинации.
Эти ошибки сейчас настолько распространены, что Кембриджский словарь назвал слово «галлюцинат» словом года.
Не все, что говорят чат-боты, верно (Фото: Getty)
В краткосрочной перспективе проблемы ChatGPT с правдой могут оказаться одним из основных препятствий на пути ИИ к глобальному доминированию.
Марк Сурман, президент и исполнительный директор Mozilla, призвал к внедрение правил со строгими ограничениями для «защиты от наиболее опасных возможностей, связанных с ИИ».
Именно эти правила будут решать, победит ли ИИ человечество или просто поможет нам писать электронные письма и выполнять скучную работу, которую мы с радостью перепоручим нашим подчиненным-роботам.
Сурман рассказал Metro.co.uk: «За последний год ChatGPT от Open AI показал себя одновременно как большой подъем производительности, так и как довольно уверенный поставщик неверной информации.
’ChatGPT может написать ваш код, написать сопроводительное письмо и сдать экзамен по праву, но вызывает беспокойство то, насколько уверенно он представляет неточную информацию.
’Поскольку мы вступаем в этот дивный новый мир, где даже сообщение Snapchat друга может быть написано с помощью искусственного интеллекта, мы должны понимать возможности и ограничения чат-ботов.
'Мы должны сами научиться использовать эту технологию.'
Потому что, если вы верите в эту шумиху, может произойти день, когда его больше нельзя будет использовать.
БОЛЬШЕ: Маск: ИИ может убить нас всех. Также Маск: Мой новый чат-бот с искусственным интеллектом Грок просто веселый
БОЛЬШЕ: Создатели ChatGPT формируют команду «Терминатора», чтобы защитить человечество от апокалипсиса искусственного интеллекта
ПОДРОБНЕЕ: Около 400 студентов университета расследуют использование ChatGPT для плагиат заданий