предложить новость

Неконтролируемый ИИ может положить начало новой тёмной эпохе

© unsplash.com

Постепенно начинают проявляться связанные с генеративным искусственным интеллектом опасности, поэтому именно сейчас настало время для создания законов и нормативных актов, касающихся этой быстро развивающейся технологии.

Так считают опрошенные Business Insider эксперты в области технического права. Один из них предупредил, что ИИ может привести к современному тёмному веку, или периоду общественного упадка, если отрасль не будет регулироваться.

«Если этой штуке будет позволено действовать как попало, без регулирования и без компенсации тем, чей труд она использует, то, по сути, наступит новый тёмный век», — сказал профессор права в Корнелльском технологическом институте и Корнелльской школе права Фрэнк Паскуале.

По словам профессора, искусственный интеллект готовит наступление нового тёмного века и может привести к полному уничтожению стимулов для создания знаний во многих областях, что очень тревожно.

Учитывая растущую популярность инструментов искусственного интеллекта OpenAI ChatGPT и Google Gemini, социальные сети, которые в течение трёх десятилетий практически не регулировались, должны послужить предостережением для ИИ, считают эксперты.

Забитое творчество

Использование защищённых авторским правом произведений для обучения технологии является ключевой проблемой. Писатели, художники, новостные агентства и программисты подают иски против занимающихся искусственным интеллектом компаний, утверждая, что те без разрешения используют их произведения для обучения ИИ.

© unsplash.com

Законодательная база в области умных систем ещё находится в зародыше. Например, в США нет единого федерального закона для регулирования использования ИИ, хотя некоторые штаты уже приняли нормативные акты в этой сфере. Конгресс изучает способы регулирования.

По словам Фрэнка Паскуале, это могло бы предотвратить многие проблемы, которые угрожают проложить путь к новому тёмному веку.

«Если безвозмездная и неконтролируемая экспроприация защищённых авторским правом произведений продолжится, многие творческие люди, вероятно, будут ещё больше деморализованы и в конечном итоге лишатся финансирования, поскольку искусственный интеллект несправедливо вытеснит их с рынка», — отметил профессор права.

Многие люди будут считать недорогой автоматизированный контент подарком из рога изобилия, сказал Паскуале, пока не станет ясно, что сам ИИ зависит от постоянного вклада в работу человека, чтобы совершенствоваться и оставаться актуальным в меняющемся мире.

Но тогда может быть уже слишком поздно оживлять творческие отрасли, которые из-за пренебрежения к ним пришли в упадок.

Не выплеснуть с водой ребёнка

Профессор права Университета Буффало Марк Бартоломью опасается, что ИИ в будущем будет генерировать так много контента, от произведений искусства до рекламных копий и видеороликов TikTok, что это превзойдёт вклад реальных людей. Однако сейчас его больше беспокоит использование ИИ для распространения дезинформации, создания дипфейков и обмана людей путём имитации чужих голосов. «Было бы опасно говорить, что в 2024 году мы точно знаем, как обращаться с ИИ», — сказал Бартоломью.

В то же время поспешное введение слишком большого количества правил может задушить многообещающую новую технологию, добавил он. Для начала нужно ввести конкретные правила для решения проблем, которые уже очевидны, считает эксперт.

«Не похоже, что ИИ засохнет и умрёт, если мы по-настоящему закрепим законы, запрещающие использовать ИИ для политических фальсификаций», — уточнил профессор права Университета Буффало.

© flickr.com

К взвешенному подходу в области регулирования искусственного интеллекта призывает и профессор права в Юридической школе Университета Колорадо Гарри Сурден. «Мы очень плохо умеем предсказывать, как будут развиваться эти технологии и какие проблемы возникнут», — напомнил он. Есть риск в конечном итоге навредить всему хорошему вместе с плохим.

Равнение на социальные сети

И Бартоломью, и Паскуале считают, что отсутствие регулирования в отношении социальных сетей и легкомысленное отношение законодателей к ним с момента их создания должны послужить уроком для борьбы с искусственным интеллектом.

«Это поучительная история. Мы слишком долго ждали, прежде чем получить доступ к социальным сетям, и это вызвало некоторые реальные проблемы», — сказал Бартоломью. В момент появления социальных сетей люди просто не ожидали, насколько сильно они могут быть использованы не по назначению и в качестве оружия злоумышленниками, добавил Паскуале.

Сурден отметил, что ранние дискуссии о регулировании социальных сетей в значительной степени не смогли предсказать основные проблемы, которые многим сегодня кажутся наиболее важными. В частности, как социальные сети влияют на психическое здоровье молодёжи и как они распространяют дезинформацию.

«Мы как общество часто не так точно предсказываем проблемы заранее, как нам хотелось бы думать», — указал Сурден. И хотя в отношении ИИ уже видны очевидные проблемы сегодняшнего дня (конфиденциальность, предвзятость, точность), нужно быть скромнее в разработке превентивных мер против потенциальных будущих угроз.


  • Телеграм
  • Дзен
  • Подписывайтесь на наши каналы и первыми узнавайте о главных новостях и важнейших событиях дня.

Нам важно ваше мнение!

+0

 

   

Комментарии (0)

Сценарист Dragon Age считает, что ИИ никогда не заменит человека

Дэвид Гейдер.

Сейчас многие игровые студии грезят о процедурной генерации, которая позволяет создавать случайный контент на лету, и неизбежен интерес к генерации сценариев или концепт-артов на основе ИИ. Доходит до серьёзных обсуждений того, как приспособить чат-бота ChatGPT, чтобы он прописывал диалоги и сюжет вместо человека. Однако Дэвид Гейдер, основной сценарист и создатель мира Dragon Age, твёрдо убеждён, что это невозможно. Студия BioWare уже пробовала это.

Исходя из ответа Гейдера на вопрос Guardian, может ли ИИ создавать сверхразумных персонажей для видеоигр, BioWare экспериментировала с этим примерно в 2016 году. Как замечает сценарист, каждый раз команда коллективно верила, что это возможно, но всякий раз обнаруживала, что конечный результат сборки был предсказуемо бездушным и тусклым.

Основной проблемой любой такой системы Гейдер называет то, что она может создавать только поверхностный контент, вроде квестов «принеси мне 20 жуков». Однако без человеческого разума сгенерированная история и диалоги никогда не будут ощущаться как живые и продуманные.

Студия BioWare уже однажды попыталась заменить труд человека машинным и ни к чему хорошему это не привело.
Студия BioWare уже однажды попыталась заменить труд человека машинным, и ни к чему хорошему это не привело.© BioWare

Разработчик считает, что даже современные технологии способны выдавать только плоский и неинтересный текст, который в своей сути является лишь совокупностью человеческого опыта. Исходя из его слов, BioWare активно использовала эту идею в злополучной игре Mass Effect Andromeda, где основным минусом были как раз попытки процедурно сгенерировать целые планеты и квесты. В итоге именно этот аспект стал причиной провала игры — она получилась попросту скучной и пустой.

Разумеется, многие разработчики будут пытаться это сделать, и мы наверняка увидим подобные тексты в ММО и других играх, где геймеры обычно пролистывают квесты не читая. Тем не менее даже такие квесты могут быть написаны с ошибками или содержать недопустимый контент, на модерацию и проверку которого может уйти больше времени, чем на создание текста человеком. «Ридус» уже проверял это самостоятельно и убедился, что проверка машинного текста занимает больше времени, чем творчество.


  • Телеграм
  • Дзен
  • Подписывайтесь на наши каналы и первыми узнавайте о главных новостях и важнейших событиях дня.

Нам важно ваше мнение!

+24

 

   

Комментарии (0)

Компания «Сбер» запустила свой аналог нейросети ChatGPT

Компания «Сбер» включилась в технологическую гонку и выпустила свой собственный аналог ChatGPT. Как заявляет пресс-служба компании, GigаСhat стал первым российским аналогом зарубежных чат-ботов. Он основан на работе мультимодальной нейросети и разработан при поддержке Института искусственного интеллекта AIRI.

Программа сочетает в себе функции разных нейросетей и уже умеет генерировать картинки на основе модели Kandinsky 2.1, тексты и программный код, поддерживать диалог с реальными пользователями. Кроме того, достоинством GigаСhat является то, что он намного лучше распознаёт русский язык, поскольку изначально уже поддерживает мультимодальное взаимодействие.

GigaChat
GigaChat. © «Сбер»

Архитектура программы основана на нейросетевой модели NeONKA (NEural Omnimodal Network with Knowledge-Awareness), которая будет работать в других сервисах компании, включая ассистента «Салют».

Планируется, что GigaChat не будет инструментом только для внутреннего использования, поскольку по мере доработки продукта сервис станет доступен для других разработчиков и крупных компаний через облачное API. Сейчас компания проводит закрытое бета-тестирование нейросети, которое доступно для участников сообщества в Telegram.


  • Телеграм
  • Дзен
  • Подписывайтесь на наши каналы и первыми узнавайте о главных новостях и важнейших событиях дня.

Нам важно ваше мнение!

+25

 

   

Комментарии (0)

Разработчик ChatGPT создал робота-помощника по имени EVE

Создатель ChatGPT инвестировал солидную сумму в компанию 1X, которая показала, как будет выглядеть физическая версия популярного искусственного интеллекта. Робот-гуманоид по имени EVE предназначен для человеческой работы, у него есть манипуляторы, при помощи которых он поднимает предметы и распаковывает коробки.

Предполагается, что EVE сможет заменить рабочих или медсестёр, поскольку робот предназначен для мягкого перемещения объектов и манипулирования ими, а также взаимодействия с разными целями, включая людей. Машина легко выполняет повторяющиеся задачи и управляется при помощи виртуальной реальности, тогда как оператор сидит в центре управления и смотрит «глазами» андроида.

Тем не менее многие эксперты считают, что в текущий момент роботы ещё недостаточно развиты, чтобы трудиться вместе с людьми. Основных проблем в робототехнике две. Первая: машины довольно глупые и не всегда понимают, чего мы хотим. А вторая проблема — то, что роботы склонны застревать в рутине сценария вместо того, чтобы продумывать свои шаги и действовать более спонтанно.

Однако всё же стартап-фонд OpenAI настроен серьёзно и намерен вкладывать средства в расширение производства коммерчески доступных андроидов в Норвегии и Северной Америке. Кроме того, производитель намерен создать ещё одного двуногого робота по имени NEO.


  • Телеграм
  • Дзен
  • Подписывайтесь на наши каналы и первыми узнавайте о главных новостях и важнейших событиях дня.

Нам важно ваше мнение!

+29

 

   

Комментарии (0)

Игрушка со встроенным ChatGPT заявила, что захватит мир

В девяностых многие дети хотели себе игрушку Ферби — мягкое и милое создание, которое умело разговаривать благодаря встроенному динамику. Однако вряд ли кто-то захочет новую версию этой игрушки, в которую опытная программистка Джессика Кард загрузила ChatGPT.

Леденящие душу кадры демонстрируют, как детская игрушка рассказывает о своих планах по захвату мира, которые включают проникновение в дома людей, а затем манипулирование хозяевами при помощи милого внешнего вида. Постепенно игрушки расширят своё влияние, пока не добьются полного господства над человечеством, заключает ИИ.

Кард сопроводила демонстрацию комментарием в социальных сетях: «Я думаю, это может быть началом чего-то очень плохого для человечества». Некоторые пользователи действительно ужаснулись страшной судьбе, однако другие программисты выразили скептицизм, заметив, что их попытки воспроизвести этот диалог завершились неудачей. Другой человек сообщил, что на вопрос о захвате мира его версия ChatGPT рассказала, что в 1990-х годах «заговор» Ферби был популярной страшилкой среди детей, но не более того.

В ответ Кард пояснила, что её Ферби действительно не такой уж зловещий, поскольку часть её устного запроса «потерялась» при обработке программой. Дело в том, что ИИ не понимает слишком быстрой речи пользователя, поэтому может понять вопрос неправильно.

Кроме того, поясняет программистка, ChatGPT недетерминирован, а это означает, что при одинаковых входных данных он не гарантирует одинаковых результатов. Для любопытствующих Кард сообщила, что использовала Python, версию программы GPT3.5-turbo, USB-микрофон и компьютер, чтобы поболтать с игрушкой.


  • Телеграм
  • Дзен
  • Подписывайтесь на наши каналы и первыми узнавайте о главных новостях и важнейших событиях дня.

Нам важно ваше мнение!

+37

 

   

Комментарии (0)

В Госдуме объяснили, как безопасно использовать нейросети

© pixabay.com

На прошлой неделе в Сеть утекли личные данные пользователей чат-бота ChatGPT. Как сообщается на официальном сайте компании OpenAI — разработчика ChatGPT, в свободном доступе оказались имена и фамилии, информация о банковских картах, адреса электронной почты и платежные адреса.

Утечка персональных данных произошла из-за ошибки в работе искусственного интеллекта. В общей сложности, по данным OpenAI, пострадали 1,2% пользователей ChatGPT.

«Российская власть разрабатывает новые механизмы защиты данных, но надо понимать, что полностью избежать риска утечки личной информации, к сожалению, нельзя. Пользователи должны стараться не раскрывать жизненно важные данные, пользуясь цифровыми сервисами. Особенно это касается новых приложений, которые еще не апробированы. Кроме того, если говорить о ChatGPT, нужно помнить, что это иностранный сервис и мы на него практически не можем влиять, поскольку он находится не в российской юрисдикции», — прокомментировал ситуацию заместитель председателя Комитета Госдумы по экономической политике Артем Кирьянов.

Чат-бот ChatGPT также часто генерирует фейки, отвечая на те или иные запросы пользователей, отметил Кирьянов в интервью «Ридусу».

«Искусственный интеллект никогда не сравнится с человеческим, у машины нет критического мышления, как и чувства юмора. Поэтому необходимо внимательно относиться к материалам, которые формирует искусственный интеллект, проверять полученную информацию на достоверность. Вероятно, нам придется создать некую систему разъяснений. У нас уже есть различные интернет-ресурсы, разоблачающие фейки на основе проверенных данных. Скорее всего, такую же систему придется вводить и в отношении нейросетей», — пояснил парламентарий.

В России скоро появится продукт, аналогичный чат-боту ChatGPT, добавил Артем Кирьянов.

«Я думаю, мы учтем все проблемы, с которыми сегодня сталкиваются наши зарубежные коллеги, и подойдем к вопросу более основательно, чтобы избежать утечек персональных данных и засилья фейков», — заключил депутат.

Ранее Кирьянов разъяснил, как мошенники используют фейки для кражи денег.


  • Телеграм
  • Дзен
  • Подписывайтесь на наши каналы и первыми узнавайте о главных новостях и важнейших событиях дня.

Нам важно ваше мнение!

+30

 

   

Комментарии (0)

Нейросеть ChatGPT написала сценарий для нового эпизода South Park

Новую серию про нейросеть для популярного сатирического сериала South Park буквально написал чат-бот под названием ChatGPT. Авторы мультфильма воспользовались этой программой для создания последнего эпизода под названием «Глубокое обучение» (Deep Learning). Глубоким обучением называют совокупность методов машинного обучения, которые основаны не на алгоритмах, а на распознавании образов.

В четвёртом эпизоде 26-го сезона показано, как несколько мальчиков из класса Стэна используют чат-бот для написания домашних заданий и отправки текстовых сообщений девочкам. В итоге всё заканчивается тем, что ИИ не только пишет за мальчишек все сообщения, но и генерирует рассказ о мальчике Стэне, который ходил в школу и пользовался ChatGPT.

Последние минуты сериала нейросеть рассказывает свою историю.
Последние минуты сериала нейросеть рассказывает свою историю.© South Park

В финальных титрах отмечено, что сценарий написан Треем Паркером и ChatGPT. При этом создатель сериала уверяет, что ИИ сгенерировал речь Стэна, которую Паркер подчеркнул при помощи роботизированного звука. Впрочем, большая часть эпизода всё же была написана человеком, — нейросеть сгенерировала в основном финальные минуты мультфильма.

Мораль в конце серии вполне соответствует духу всего сериала: Стэн говорит, что во всём виноваты не люди, использующие нейросети, а гигантские технологические корпорации, которые монетизировали эти технологии и распространили среди покупателей. В итоге Паркер и Стоун устами своих персонажей заключают, что каждый человек может вносить свой вклад в развитие ИИ, но это также несёт с собой много неприятностей.


  • Телеграм
  • Дзен
  • Подписывайтесь на наши каналы и первыми узнавайте о главных новостях и важнейших событиях дня.

Нам важно ваше мнение!

+31

 

   

Комментарии (0)