предложить новость

Илон Маск обвинил OpenAI в «обмане шекспировских масштабов»

© flickr.com

Миллиардер Илон Маск в понедельник возобновил судебный процесс против разработчика ChatGPT компании OpenAI и ее генерального директора Сэма Альтмана, обвиняя их в обмане «шекспировского масштаба». Маск утверждает, что компания ставит прибыль и коммерческие интересы выше общественного блага.

Схожее заявление он уже подавал в суд Северного округа Калифорнии в феврале, а затем отозвал в июне без объяснения причин, всего за день до того, как судья должен был рассмотреть ходатайство OpenAI об отклонении иска.

Маска был одним из основателей стартапа в 2015 году и покинул его три года спустя. После его ухода OpenAI стала лицом генеративного ИИ. Теперь Маск утверждает, что его бывшие соучредители в OpenAI предали его, превратив некоммерческую компанию в коммерческое предприятие.

По версии Маска, изначально создатели OpenAI договаривались о разработке искусственного интеллекта на благо человечества. Компания нарушила это соглашение, когда перешла к партнерству с Microsoft и стала в значительной степени коммерческой, угрожая человечеству безрассудным развитием ИИ.

OpenAI и Альтман решительно отвергли первоначальные обвинения Маска, назвав его озлобленным и мелочным бывшим партнером, который завидует успеху компании после своего ухода. В марте в блоге компании Альтман и другие руководители OpenAI опубликовали электронные письма, где утверждали, что Маск всегда поддерживал переход к коммерческому статусу.

Как сообщил New York Times адвокат Маска, новая жалоба содержит дополнительные утверждения о том, что OpenAI нарушила федеральные законы о рэкете, и является «гораздо более серьезным иском», чем предыдущий. В нем также утверждается, что Альтман и его партнеры участвовали в «многочисленных актах банковского мошенничества», принимая финансовые взносы от Маска.

«После того, как Маск предоставил свое имя предприятию, вложил значительное время, десятки миллионов долларов в стартовый капитал и нанял ведущих ученых в области искусственного интеллекта для OpenAI Inc, Альтман и его сообщники предали Маска и одноименную некоммерческую организацию компании», — говорится в иске.

Маск в прошлом году запустил собственный ИИ-стартап xAI, который в мае был оценен в 24 миллиарда долларов. Однако чат-бот Маска не смог завоевать такую популярность или наладить партнерские отношения с крупными технологическими компаниями, как ChatGPT, и столкнулся с негативной реакцией за распространение дезинформации.

Пять госсекретарей США объявили в понедельник, что планируют направить Маску письмо с требованием внести изменения в чат-бота после того, как он распространил ложь о президентских выборах 2024 года.


  • Телеграм
  • Дзен
  • Подписывайтесь на наши каналы и первыми узнавайте о главных новостях и важнейших событиях дня.

Нам важно ваше мнение!

+1

 

   

Комментарии (0)

Что показал крупнейший в США эксперимент с безусловным базовым доходом

© Борис Алексеев / Коллаж / Ridus.ru

В США завершился крупнейший эксперимент с безусловным базовым доходом, который проводила компания OpenResearch и поддерживал основатель и руководитель OpenAI Сэм Альтман. Он привлёк в проект 60 миллионов долларов, включая 14 миллионов собственных средств.

Результаты подтвердили данные многих других аналогичных экспериментов: люди тратят большую часть «бесплатных» средств на удовлетворение своих основных потребностей и помощь другим. Они работали в среднем меньше, но оставались вовлечёнными в рабочую силу и были более осознанными в своих поисках работы по сравнению с контрольной группой. Гарантированные наличные деньги обеспечивают гибкость — вот главный вывод исследователей.

«У получателей была большая свобода действий для принятия решений, которые лучше всего подходили для их жизни и планов на будущее — от переезда в другой район до новых деловых начинаний», — заявили авторы отчёта.

Они отказываются обобщать полученные результаты, мотивируя свое решение тем, что данные сильно варьируются в зависимости от стартовых доходов получателей, структуры их семей и приоритетов.

© freepik.com

Альтман объявил о финансировании проекта в 2016 году, когда OpenAI только запускался. В то время предприниматель писал, что заинтригован идеей базового дохода, но у него имеется недостаточно данных о том, как это будет работать. «Я совершенно уверен, что в какой-то момент в будущем, по мере того как технологии будут продолжать сокращать традиционные рабочие места и создавать огромные новые богатства, мы увидим нечто подобное в национальном масштабе», — писал он тогда.

Базовый доход для базовых потребностей

Официально программа началась в 2019 году, когда в ней зарегистрировалось 3000 жителей Техаса и Иллинойса из городских, пригородных и сельских районов. Все они изначально имели доход ниже 28 тысяч долларов в год. Три года треть участников получала 1000 долларов в месяц, а остальные (контрольная группа) — всего 50 долларов в месяц (просто как плату за участие в исследовании). При этом все сохраняли свои текущие льготы.

Представители основной группы увеличили свои общие расходы в среднем на 310 долларов в месяц, но большая часть этих трат пришлась на еду, аренду жилья и транспорт. Они предложили больше финансовой поддержки другим нуждающимся по сравнению с контрольной группой.

© freepik.com

Исследователи заметили значительное снижение стресса и психических расстройств в течение первого года эксперимента у получателей безусловного дохода, но затем этот эффект постепенно исчез. Не обнаружилось «прямых доказательств улучшения доступа к здравоохранению или физического здоровья», хотя адресаты основных выплат смогли уделять больше времени своему здоровью, что позволило им чаще посещать стоматолога и на 26% чаще посещать больницы по сравнению с контрольной группой.

Гарантированный доход не смог решить основные проблемы со здоровьем вроде хронических заболеваний или обратить вспять годы недостаточного доступа к медицинской помощи, констатируют авторы исследования. Зато с течением времени участники эксперимента стали больше ориентироваться на будущее: лучше составлять бюджет и наращивать свои сбережения; чаще вынашивать планы получения высшего образования и идеи для бизнеса. Правда, за короткий срок проекта существенного роста уровня высшего образования или шансов на открытие бизнеса в основной группе не произошло.

Ещё не финал

Главным аргументом критиков безусловного дохода остаётся опасение, что люди просто перестанут работать. Результаты исследования показали, что и в этом плане многое зависит от обстоятельств.

К концу периода исследования обе группы работали немного больше — отчасти потому, что выплаты начались во время пандемии COVID-19 и закончились когда экономика начала восстанавливаться. Но в среднем люди с полными выплатами работали на час с лишним в неделю меньше, чем контрольная группа. Особенно это касается одиноких родителей, которым гарантированный доход позволил выбирать более гибкую работу и проводить больше времени с детьми.

Сейчас OpenResearch активно ищет дополнительное финансирование для будущих исследований, но пока неизвестно, продолжит ли Альтман поддерживать такие проекты. Недавно он выдвинул новую идею относительно гарантированного дохода — «универсальный базовый компьютер».

Гуру искусственного интеллекта предлагает выделить каждому по «кусочку вычислительной мощности GPT-7». По мере того как ИИ становится всё более совершенным и внедряется во все новые сферы жизни, владение такой крупной языковой моделью, как GPT-7, может стать более ценным фактором, чем деньги, пояснил он.


  • Телеграм
  • Дзен
  • Подписывайтесь на наши каналы и первыми узнавайте о главных новостях и важнейших событиях дня.

Нам важно ваше мнение!

+0

 

   

Комментарии (0)

Неконтролируемый ИИ может положить начало новой тёмной эпохе

© unsplash.com

Постепенно начинают проявляться связанные с генеративным искусственным интеллектом опасности, поэтому именно сейчас настало время для создания законов и нормативных актов, касающихся этой быстро развивающейся технологии.

Так считают опрошенные Business Insider эксперты в области технического права. Один из них предупредил, что ИИ может привести к современному тёмному веку, или периоду общественного упадка, если отрасль не будет регулироваться.

«Если этой штуке будет позволено действовать как попало, без регулирования и без компенсации тем, чей труд она использует, то, по сути, наступит новый тёмный век», — сказал профессор права в Корнелльском технологическом институте и Корнелльской школе права Фрэнк Паскуале.

По словам профессора, искусственный интеллект готовит наступление нового тёмного века и может привести к полному уничтожению стимулов для создания знаний во многих областях, что очень тревожно.

Учитывая растущую популярность инструментов искусственного интеллекта OpenAI ChatGPT и Google Gemini, социальные сети, которые в течение трёх десятилетий практически не регулировались, должны послужить предостережением для ИИ, считают эксперты.

Забитое творчество

Использование защищённых авторским правом произведений для обучения технологии является ключевой проблемой. Писатели, художники, новостные агентства и программисты подают иски против занимающихся искусственным интеллектом компаний, утверждая, что те без разрешения используют их произведения для обучения ИИ.

© unsplash.com

Законодательная база в области умных систем ещё находится в зародыше. Например, в США нет единого федерального закона для регулирования использования ИИ, хотя некоторые штаты уже приняли нормативные акты в этой сфере. Конгресс изучает способы регулирования.

По словам Фрэнка Паскуале, это могло бы предотвратить многие проблемы, которые угрожают проложить путь к новому тёмному веку.

«Если безвозмездная и неконтролируемая экспроприация защищённых авторским правом произведений продолжится, многие творческие люди, вероятно, будут ещё больше деморализованы и в конечном итоге лишатся финансирования, поскольку искусственный интеллект несправедливо вытеснит их с рынка», — отметил профессор права.

Многие люди будут считать недорогой автоматизированный контент подарком из рога изобилия, сказал Паскуале, пока не станет ясно, что сам ИИ зависит от постоянного вклада в работу человека, чтобы совершенствоваться и оставаться актуальным в меняющемся мире.

Но тогда может быть уже слишком поздно оживлять творческие отрасли, которые из-за пренебрежения к ним пришли в упадок.

Не выплеснуть с водой ребёнка

Профессор права Университета Буффало Марк Бартоломью опасается, что ИИ в будущем будет генерировать так много контента, от произведений искусства до рекламных копий и видеороликов TikTok, что это превзойдёт вклад реальных людей. Однако сейчас его больше беспокоит использование ИИ для распространения дезинформации, создания дипфейков и обмана людей путём имитации чужих голосов. «Было бы опасно говорить, что в 2024 году мы точно знаем, как обращаться с ИИ», — сказал Бартоломью.

В то же время поспешное введение слишком большого количества правил может задушить многообещающую новую технологию, добавил он. Для начала нужно ввести конкретные правила для решения проблем, которые уже очевидны, считает эксперт.

«Не похоже, что ИИ засохнет и умрёт, если мы по-настоящему закрепим законы, запрещающие использовать ИИ для политических фальсификаций», — уточнил профессор права Университета Буффало.

© flickr.com

К взвешенному подходу в области регулирования искусственного интеллекта призывает и профессор права в Юридической школе Университета Колорадо Гарри Сурден. «Мы очень плохо умеем предсказывать, как будут развиваться эти технологии и какие проблемы возникнут», — напомнил он. Есть риск в конечном итоге навредить всему хорошему вместе с плохим.

Равнение на социальные сети

И Бартоломью, и Паскуале считают, что отсутствие регулирования в отношении социальных сетей и легкомысленное отношение законодателей к ним с момента их создания должны послужить уроком для борьбы с искусственным интеллектом.

«Это поучительная история. Мы слишком долго ждали, прежде чем получить доступ к социальным сетям, и это вызвало некоторые реальные проблемы», — сказал Бартоломью. В момент появления социальных сетей люди просто не ожидали, насколько сильно они могут быть использованы не по назначению и в качестве оружия злоумышленниками, добавил Паскуале.

Сурден отметил, что ранние дискуссии о регулировании социальных сетей в значительной степени не смогли предсказать основные проблемы, которые многим сегодня кажутся наиболее важными. В частности, как социальные сети влияют на психическое здоровье молодёжи и как они распространяют дезинформацию.

«Мы как общество часто не так точно предсказываем проблемы заранее, как нам хотелось бы думать», — указал Сурден. И хотя в отношении ИИ уже видны очевидные проблемы сегодняшнего дня (конфиденциальность, предвзятость, точность), нужно быть скромнее в разработке превентивных мер против потенциальных будущих угроз.


  • Телеграм
  • Дзен
  • Подписывайтесь на наши каналы и первыми узнавайте о главных новостях и важнейших событиях дня.

Нам важно ваше мнение!

+0

 

   

Комментарии (0)

Третья версия DALL-E лучше понимает людей и фразы из ChatGPT

© OpenAI

Компания OpenAI анонсировала третью версию своей генеративной платформы визуального искусства DALL-E, которая преобразует текстовые подсказки в изображения. Самой важной функцией новой версии стала интеграция с ChatGPT. Программа должна намного лучше понимать конкретные формулировки пользователей.

Теперь оператор нейросетей сможет попросить ChatGPT придумать подсказку или целый абзац текста, чтобы DALL-E 3 воспроизвела по этому описанию картину. Что примечательно, новую модель много обучали для того, чтобы она избегала стилей ныне живущих художников, — так разработчики намерены избежать проблем с авторским правом. Кроме того, авторы изображений смогут запрашивать удаление своих произведений, заполнив специальную форму на веб-сайте.

Пример того, как нейросеть связывает объекты на сцене друг с другом.
Пример того, как нейросеть связывает объекты на сцене друг с другом.© OpenAI

Создатели новой версии гордятся тем, что значительно улучшили безопасность нейросети. OpenAI заявила, что работала с «красными командами», которые в России известны под названием «этичные хакеры». Это специалисты, которые намеренно пытаются взломать систему, чтобы проверить её безопасность. Как сообщают разработчики нейросети, она успешно прошла все испытания. Кроме того, DALL-E 3 обучена игнорировать слова с чрезмерно жестокими или запрещёнными описаниями.

Что особенно порадует любителей портретов, новая версия должна намного лучше справляться с рисованием рук, которые часто изображаются с грубыми ошибками. Кроме того, DALL-E 3 корректнее связывает объекты на сцене друг с другом, как показано на примере выше, и точнее понимает конкретные запросы пользователей. Пока новая версия будет доступна для пользователей ChatGPT Plus и ChatGPT Enterprise. Осенью её планируют предоставить исследовательским лабораториям, но когда нейросеть выйдет в свободный доступ, компания пока не сообщила.


  • Телеграм
  • Дзен
  • Подписывайтесь на наши каналы и первыми узнавайте о главных новостях и важнейших событиях дня.

Нам важно ваше мнение!

+1

 

   

Комментарии (0)