![]() |
Fujitsu в 2023 году выпустит первый коммерческий квантовый компьютер японского производства
Компания Fujitsu совместно с Институтом физико-химических исследований RIKEN планируют начать коммерческое производство квантовых компьютеров в 2023 году. Fujitsu стала первой компанией в стране, проявившей готовность коммерциализировать подобные технологии. Пока в индустрии квантовых компьютеров доминируют компании вроде Google. При этом такие машины рассматриваются в мире как решения новейшего поколения, способные оказать непосредственное влияние на конкурентоспособность страны и её национальную безопасность. По оценкам Boston Consulting Group, квантовые вычисления к 2040 году смогут приносить экономический эффект на $850 млн ежегодно — благодаря разработке новых материалов и других прорывных технологий. Для разработок Fujitsu и RIKEN основали в апреле прошлого года исследовательскую базу в городе Вако префектуры Сайтамо, в работах участвуют порядка 20 учёных. Предполагается, что компьютеры будут использовать для составления точных прогнозов погоды, в разработке новых материалов, медицине и многих других сферах. В компании обещают, что компьютеры смогут купить различные компании уже в следующем фискальном году, начинающемся в апреле. Известно, что исследования в области новых материалов с использованием принципов квантовых вычислений Fujitsu начала ещё в апреле, совместно с Fujifilm. По данным портала Nikkei Asian Review, японские компании отстали от зарубежных конкурентов в разработке квантовых компьютеров, поэтому Fujitsu станет первой компанией, начавшей строить «домашнюю» систему с помощью технологий RIKEN и сверхпроводников с системами охлаждения до экстремально низких температур. В 2019 году Google стала героем новостей, заявив, что её квантовый компьютер смог за 3 минуты решить задачу, на которую суперкомпьютеру пришлось бы потратить 10 тыс. лет. Впрочем, позже это утверждение опровергли. Известно, что определённых успехов добились и китайские техногиганты. Кроме того, выросло число связанных с квантовыми вычислениями стартапов. Впрочем, пока возможности существующих систем ограничены. Google намерена коммерциализировать свои разработки только в 2029 году, но пока на этом пути ещё довольно много препятствий. Ожидается, что коммерческий квантовый компьютер Fujitsu сможет предложить 64 кубита — больше, чем 53 кубита машины Google 2019 года. При этом он будет уступать решению IBM с её 127 кубитами, введённому в эксплуатацию в 2021 году. Впрочем, у Fujitsu намного более амбициозные цели. В компании рассчитывают, что после марта 2027 года компания выпустит машину более чем на 1000 кубитов. Ранее сообщалось, что учёные создали алгоритм для оценки производительности квантовых компьютеров, который позволяет «путешествовать во времени» Источник: https://3dnews.ru/1072657/fujitsu-v...y-kvantoviy-kompyuter-yaponskogo-proizvodstva |
Китайская Baidu представила свой первый квантовый компьютер Qianshi
Китайский гигант поисковых систем Baidu Inc. в четверг представил свой первый квантовый компьютер и готов сделать его доступным для сторонних пользователей. Таким образом компания присоединилась к глобальной гонке по применению квантовых технологии для решения практических задач. Квантовый компьютер, получивший название Qianshi, имеет 10-кубитовый процессор, говорится в заявлении компании. Baidu также разработала квантовый чип на 36 кубитов. По современным меркам это не так уж и много — существуют системы с большим числом кубитов. Но с чего-то начинать надо. Правительства и компании по всему миру уже несколько лет уделяют большое внимание развитию квантовых компьютеров — новых устройств для высокоскоростных вычислений, работающих при низких температурах и позволяющих достичь беспрецедентной скорости обработки данных в определённых задачах. Однако в настоящее время реальные достижения в этой области все еще очень скромные и представлены небольшой группой устройств, находящихся на ранней стадии разработки. Соединенные Штаты, Китай и ЕС начали масштабные проекты по финансированию квантовых компьютеров, надеясь вырваться вперед в этой области, которая часто рассматривается как один из краеугольных камней, на которых будет определяться новое глобальное превосходство. По данным исследователя рынка IDC, к концу 2027 года мировые правительства и компании вложат около 16,4 миллиарда долларов в развитие квантовых технологий. Американский технологический гигант IBM заявил, что планирует создать квантовый компьютер, готовый к коммерческому использованию в 2025 году, с процессором, содержащим более 4 000 кубитов. На данный момент IBM выпустила квантовые процессоры с 127 кубитами. Компания Alphabet Inc (Google) также намерена разработать компьютер с 1 000 000 кубитов к концу этого десятилетия. Источник: https://3dnews.ru/1072959/kitayskay...viy-kvantoviy-kompyuter-pod-nazvaniem-qianshi |
GlobalFoundries разрабатывает технологии для крупносерийного выпуска квантовых процессоров
Новейшие процессоры - Мировые IT новости - Page 3 -Antichat Японские физики создали квантовый процессор с рекордно высокой скоростью работы На расчет каждой из логических операций уходит всего 6,5 наносекунд ТАСС, 8 августа. Японские физики создали рекорно быстрый двухкубитный квантовый процессор на базе холодных атомов, способный исполнять сотни... nulled.in |
Европейский регулятор призвал страны ЕС провести анализ рисков в области критически важных технологий
https://d-russia.ru/wp-content/uploa...rri-breton.png Еврокомиссия (ЕК) рекомендовала странам ЕС провести анализ рисков в области четырёх критически важных технологий: - передовых чипов, - искусственного интеллекта, - квантовых , - биотехнологий, сообщил во вторник euractiv.com. Мера призвана снизить угрозы в области технологической безопасности и предотвратить утечки технологий. Технологии страшат европейских руководителей на сами по себе, а из-за того, что этими технологиями владеют Россия и Китай. Прямо на Россию с Китаем ЕК не указывает, но из сообщения euractiv.com это следует вполне определённо. Закончить анализ планируется до конца 2023 года. В дополнение к четырём критически важным технологиям Еврокомиссия указала ещё шесть технологий, по поводу которых хотела бы начать консультации с входящими в ЕС странами: - передовые средства связи, навигация и цифровые технологии; - передовые сенсорные технологии; - технологии, связанные с космосом и реактивным движением; - энергетические технологии (что бы это ни значило – ред.); - роботизированные и автономные системы; - современные материалы, производство и технологии переработки. Еврокомиссар по вопросам внутреннего рынка Тьерри Бретон (Thierry Breton), назвал вышеперечисленные технологии «стратегическими для стратегической независимости и безопасности ЕС». Источник https://d-russia.ru/evropejskij-reg...v-oblasti-kriticheski-vazhnyh-tehnologij.html |
Китай сообщил о создании прототипа самого мощного в мире квантового компьютера
https://d-russia.ru/wp-content/uploads/2023/10/kot.jpg Иллюстрация — кот Шрёдингера Объявлено об успешном создании прототипа квантового компьютера под названием «Цзючжан-3», производительность которого в решении математической задачи, основанной на выборке гауссовых бозонов, превышает производительность имеющихся суперкомпьютеров в 10^24 степени раз, сообщает агентство Синьхуа в четверг. Количество фотонов в системе «Цзючжан-3» увеличилось до 255; для сравнения, в «Цзючжан» первого поколения было 76 фотонов. Фотоны здесь – частицы, которые находятся в «запутанном» состоянии (изменение спинов двух «запутанных» фотонов не может происходить независимо), обеспечивая саму возможность квантовых вычислений. О квантовых вычислениях Самые сложные задачи, которые «Цзючжан-3» может рассчитать за одну микросекунду, потребовали бы от самого мощного в мире суперкомпьютера Frontier около 20 миллиардов лет, говорится в сообщении. Надо учесть, однако, что не все типы задач поддаются квантовым вычислениям. Название «Цзючжан» происходит от древнекитайской математической монографии «Цзючжан суаньшу», в которой обобщены достижения китайцев в математике за период с V века до н.э. до III века н.э. Источник https://d-russia.ru/kitaj-soobshhil...o-moshhnogo-v-mire-kvantovogo-kompjutera.html |
Экзафлопсный суперкомпьютер Frontier назван лучшим изобретением 2023 года по версии Time
Ежегодно американский журнал Time публикует список из лучших изобретений человечества в самых разных сферах. В нынешнем году в рейтинг вошли 200 продуктов и технологий, которые сгруппированы более чем в 35 категорий. Это, в частности, ПО, связь, виртуальная и дополненная реальность, ИИ, потребительская электроника, чистая энергии, здравоохранение, безопасность, робототехника и многое другое. Одним из направлений являются экспериментальные системы и устройства. В данной категории победителем назван вычислительный комплекс Frontier — самый мощный суперкомпьютер 2023 года. Исследователи уже используют его для самых разных целей: от изучения чёрных дыр до моделирования климата. «Специалисты сравнивают это с эквивалентом высадки на Луну с точки зрения инженерных достижений. Это больше, чем чудо. Это статистическая невозможность», — сказал Ник Дюбе (Nic Dubé), руководитель проекта в HPE. https://3dnews.ru/assets/external/il...3/Frontier.jpg Источник изображения: ORNL Система Frontier, созданная специалистами HPE, установлена в Национальной лаборатории Окриджа (ORNL) Министерства энергетики США. Она занимает первое место в рейтинге TOP500 с производительностью 1,194 Эфлопс. В составе системы применяются процессоры AMD EPYC Milan, ускорители Instinct MI250X и интерконнект Cray Slingshot. В общей сложности задействованы 8 699 904 вычислительных ядра. Теоретическое пиковое быстродействие достигает 1,680 Эфлопс. Источник https://servernews.ru/1094953 |
Исследователи придумали «отравленные картинки», которыми художники смогут бороться с нейросетями
Команда исследователей из Чикагского университета создала инструмент под названием Nightshade, с помощью которого художники смогут защитить свои работы от генеративных нейросетей, использующих для обучения изображения в интернете. Он позволяет добавить к изображениям невидимые глазу человека пиксели, которые эффективно искажают данные для обучения ИИ-алгоритмов. https://3dnews.ru/assets/external/il...94990/1115.jpg Источник изображения: petapixel.com Стремительный рост популярности генеративных нейросетей, способных создавать изображения по текстовому описанию, также привёл к многочисленным судебным искам со стороны современных художников в адрес компаний, занимающихся разработкой ИИ-алгоритмов. Дело в том, что для обучения генеративных нейросетей обычно используются изображения, опубликованные на разных веб-ресурсах. За счёт этого генеративные нейросети способны рисовать изображения не хуже человека и даже копировать стили известных художников. Алгоритм Nightshade призван помочь художникам защитить свои работы от сканирования нейросетями. Он особым образом обрабатывает изображения, и, если в дальнейшем они используются для обучения нейросетей, то последние теряют способность должным образом обрабатывать пользовательский запрос и выдают неверный результат. Фактически такая доработка картинок заставляет нейросети неправильно распознавать изображённые на них предметы. Например, там, где нарисованы шляпы, алгоритм распознаёт торты, а сумки — распознаются как тостеры. Повреждённые таким образом данные очень сложно удалить, поскольку разработчикам генеративных алгоритмов придётся кропотливо находить каждый такой фрагмент вручную. https://3dnews.ru/assets/external/il...39jcgbDcdH.jpg Художники, которые хотят поделиться своими работами в интернете, но при этом также намерены защитить их, могут задействовать Nightshade в сочетании с другим инструментом под названием Glaze (разработан той же группой исследователей и предназначен для модификации изображений таким образом, что нейросеть не сможет эффективно обучаться с их помощью). Согласно имеющимся данным, Nightshade и Glaze будут доступны для бесплатного использования, а первый из них будет иметь открытый исходный код, благодаря чему другие разработчики смогут улучшать его. Источник: https://3dnews.ru/1094990/predstavl...dognikam-zashchitit-svoi-raboti-ot-neyrosetey |
"Новость Месяца" в разделе Нейросети
Создана физическая нейросеть с нанопроводами вместо нервных окончаний Она способна учиться в потоковом режиме, не используя для этого внешнее хранилище информации Ученые из США и Австралии впервые создали рукотворную нейросеть, способную учиться в потоковом режиме и запоминать информацию в процессе работы, не используя для этого внешнюю память. Это стало возможным благодаря использованию нанопроводов в качестве аналогов нервных окончаний, сообщила пресс-служба Сиднейского университета. Исследование опубликовано в среду в журнале Nature Communications. "Как правило, при работе систем машинного обучения данные сначала записываются в память, а потом они используются для обучения нейросетей, на что расходуется много энергии и что не позволяет использовать подобные алгоритмы для обработки потоковых данных. Нейросети на базе нанопроводов решают эту проблему и позволяют значительно сократить расходы энергии и памяти", - заявила соавтор работы из Сиднейского университета Зденка Кунчич, чьи слова приводит пресс-служба вуза. Исследователи уже много лет работают над созданием нейроморфных систем - рукотворных аналогов нервной системы на базе нанопроводов. Пересечения этих наноструктур способны прогнозируемо менять свое сопротивление при движении электричества через часть нанопроводов, что позволяет использовать их в качестве мемристора: резистора с эффектом памяти, который обладает некоторыми ключевыми свойствами нервных клеток. Недавно ученые обнаружили, что эти конструкции из нанопроводов лишены одного из главных недостатков других типов мемристоров - их неспособности обучаться на лету и при этом запоминать новые знания в процессе работы. В прошлом это не позволяло применять подобные аналоги нервных клеток для обработки потоковых данных, непрерывно поступающих в нейросеть из подключенных к ней камер и сенсоров или из глобальной сети. Исследователи доказали, что их разработка может решать подобные задачи, создав на ее базе систему машинного зрения, способную распознавать черно-белые изображения рукописных цифр. Работу этого физического подобия нейросети исследователи проверили на наборе из 70 тыс. изображений из базы данных MNIST, используемой для обучения систем машинного зрения. Проведенные профессором Кунчич и ее коллегами тесты показали, что нейросеть на нанопроводах научилась распознавать рукописные цифры с 93,4% точностью. Она могла запомнить последовательность из 8 чисел не используя при этом внешние хранилища данных. Эта технология приближает разработку машинного интеллекта с высокой эффективностью и небольшими затратами энергии для выполнения задач, максимально приближенных к реальности, считают авторы. Источник https://nauka.tass.ru/nauka/19171187 |
OpenAI представила флагманскую нейросеть GPT-4 Turbo — мощнее и в разы дешевле GPT-4
Сегодня на своей первой конференции для разработчиков компания OpenAI представила GPT-4 Turbo — улучшенную версию своей флагманской большой языковой модели. Разработчики из OpenAI отмечают, что новая GPT-4 Turbo стала мощнее и в то же время дешевле, чем GPT-4. Языковая модель GPT-4 Turbo будет предлагаться в двух версиях: одна предназначена исключительно для анализа текста, вторая понимает контекст не только текста, но и изображений. Модель анализа текста доступна в виде предварительной версии через API, начиная с сегодняшнего дня. Обе версии нейросети компания пообещала сделать общедоступными «в ближайшие недели». Стоимость использования GPT-4 Turbo составляет 0,01 доллара за 1000 входных токенов (около 750 слов) и 0,03 доллара за 1000 выходных токенов. Под входными токенами понимаются фрагменты необработанного текста. Например, слово «fantastic» разделяется на токены «fan», «tas» и «tic». Выходные токены, в свою очередь, это токены, которые модель генерирует на основе входных токенов. Цена на GPT-4 Turbo для обработки изображений будет зависеть от размера изображения. Например, обработка изображения размером 1080 × 1080 пикселей в GPT-4 Turbo будет стоить 0,00765 доллара. «Мы оптимизировали производительность, поэтому можем предлагать GPT-4 Turbo по цене в три раза дешевле для входных токенов и в два раза дешевле для выходных токенов по сравнению с GPT-4», — сообщила OpenAI в своём блоге. Для GPT-4 Turbo обновили базу знаний, которая используется при ответе на запросы. Языковая модель GPT-4 обучалась на веб-данных до сентября 2021 года. Предел знаний GPT-4 Turbo — апрель 2023 года. Иными словами, на запросы, имеющие отношение к последним событиям (до апреля 2023 года), нейросеть будет давать более точные ответы. На основе множества примеров из интернета GPT-4 Turbo обучилась прогнозировать вероятность появления тех или иных слов на основе шаблонов, включая семантический контекст окружающего текста. Например, если типичное электронное письмо заканчивается фрагментом «С нетерпением жду…», GPT-4 Turbo может завершить его словами «… вашего ответа». Вместе с этим модель GPT-4 Turbo получила расширенное контекстное окно (количество текста, учитываемое в процессе генерации). Увеличение контекстного окна позволяет модели лучше понимать смысл запросов и выдавать более подходящие им ответы, не отклоняясь от темы. Модель GPT-4 Turbo имеет контекстное окно в 128 тыс. токенов, что в четыре раза больше, чем у GPT-4. Это самое большое контекстное окно среди всех коммерчески доступных моделей ИИ. Оно превосходит контекстное окно модели Claude 2 от Anthropic, которая поддерживает до 100 тыс. токенов. Anthropic утверждает, что экспериментирует с контекстным окном на 200 тыс. токенов, но ещё не сделала внесла эти изменения в открытый доступ. Контекстное окно в 128 тыс. токенов соответствует примерно 100 тыс. словам или 300 страницам текста, что равносильно размеру романов «Грозовой перевал» Эмили Бронте, «Путешествия Гулливера» Джонатана Свифта или «Гарри Поттер и узник Азкабана» Джоан Роулинг. Модель GPT-4 Turbo способна генерировать действительный JSON-формат. По словам OpenAI, это удобно для веб-приложений, передающих данные, например для тех, которые отправляют данные с сервера клиенту, чтобы их можно было отобразить на веб-странице. GPT-4 Turbo в целом получила более гибкие настройки, которые окажутся полезными разработчикам. Более подробно об этом можно узнать в блоге OpenAI. «GPT-4 Turbo работает лучше, чем наши предыдущие модели, при выполнении задач, требующих тщательного следования инструкциям, таких как генерация определённых форматов (например, “всегда отвечать в XML”). Кроме того, GPT-4 Turbo с большей вероятностью вернёт правильные параметры функции», — сообщает компания. Также GPT-4 Turbo может быть интегрирован с DALL-E 3, функциями перевода текста в речь и зрительным восприятием, расширяя возможности использования ИИ. OpenAI также объявила, что будет предоставлять гарантии защиты авторских прав для корпоративных пользователей через программу Copyright Shield. «Мы теперь будем защищать наших клиентов и оплачивать понесённые расходы, если они столкнутся с юридическими претензиями о нарушении авторских прав», — заявила компания в своём блоге. Ранее то же самое сделали Microsoft и Google для пользователей их ИИ-моделей. Copyright Shield будет покрывать общедоступные функции ChatGPT Enterprise и платформы для разработчиков OpenAI. Для GPT-4 компания запустила программу тонкой настройки, предоставляя разработчикам еще больше инструментов для кастомизации ИИ под определённые задачи. По словам компании, в отличие от программы тонкой настройки GPT-3.5, предшественника GPT-4, программа тонкой настройки GPT-4 потребует большего контроля и руководства со стороны OpenAI, в основном из-за технических препятствий. Компания также удвоила лимит скорости ввода и вывода токенов в минуту для всех платных пользователей GPT-4. При этом цена осталась прежней: 0,03 доллара за входной токен и 0,06 доллара за выходной токен (для модели GPT-4 с контекстным окном на 8000 токенов) или 0,06 доллара за входной токен и 0,012 доллара за выходной токен (для модели GPT-4 с контекстным окном на 32 000 токенов). источник https://3dnews.ru |
В Японии заработал первый практический квантовый компьютер IBM —это мощнейшая 127-кубитная система Quantum Eagle
Компания IBM сообщила, что на базе Токийского университета начал работать мощнейший в регионе квантовый компьютер — 127-кубитовая платформа IBM Quantum Eagle. Передача компьютера осуществлена в апреле этого года. От японских партнёров компания IBM рассчитывает получить идеи практического использования нового класса вычислительных устройств. Они обещают невообразимую мощь в обработке данных, но как это выглядит на практике, никто не знает. https://3dnews.ru/assets/external/il...096596/ibm.jpg Источник изображения: IBM Ранее IBM уже передавала японским учёным квантовые системы. Так, в 2021 году на площадке Kawasaki Токийского университета была развёрнута 27-кубитовая система IBM Q System One. Новый компьютер несёт процессор IBM Eagle со 127 кубитами и обещает многократно ускорить выполнение расчётов. Классический подход предполагает, что для начала практического применения квантовых компьютеров нужны будут системы с десятками и сотнями тысяч физических кубитов. Согласно обоснованиям специалистов Google, например, для исправления ошибок в одном логическом кубите необходимо 1000 физических кубитов. Тем самым безошибочный квантовый компьютер на 1000 кубитов потребует 1 млн физических кубитов для коррекции ошибок. Это означает, что практическую ценность Google рассчитывает увидеть в системах с тысячами и десятками тысяч кубитов. В IBM заявляют, что это не так. В опубликованной этим летом работе специалисты IBM доказывают, что практическая ценность квантовых систем начинается со 100 кубитов. Нетрудно догадаться, что платформа IBM Eagle со 127 кубитами заявлена как первая практическая, о чём также сейчас заявили японские партнёры компании. Это тем более важно, что современные обычные суперкомпьютеры не способны эмулировать более 50 кубитов при работе с квантовыми алгоритмами. Развёрнутая в Японии платформа IBM Quantum Eagle будет использоваться местным консорциумом Quantum Innovation Initiative (QII), в который вошло около двух десятков учебных заведений страны и компаний. Квантовую систему будут обучать искать новые материалы, лекарства, научат работать с финансами, физикой, химией и социологией. Для IBM это сулит впечатляющей отдачей в области, куда ещё никто серьёзно не проникал. Затраты на это огромны, но благотворительности в этом нет. Пионеры получат всё. Источник: https://3dnews.ru/1096596/v-yaponii...mpyuter-ibm-za-gelezo-rasschitayutsya-ideyami |
Nvidia и Amazon создадут суперкомпьютер Ceiba с производительностью 65 ExaFLOPS. Но это производительность не FP32 или FP64
Речь о производительности ИИ Компании Nvidia и Amazon Web Services (AWS) объявили о расширении своего стратегического сотрудничества, в рамках которого в том числе будет построен самый быстрый суперкомпьютер искусственного интеллекта Ceiba. https://www.ixbt.com/img/n1/news/202...mage_large.jpg Ceiba получит 16 384 системы GH200 Superchips и будет иметь производительность в невероятные 65 ExaFLOPS. Правда, тут сразу стоит сказать, что это производительность именно в задачах ИИ, то есть речь не о вычислениях с двойной или одинарной точностью. О классических показателях данных нет. Но это не всё, в чём будет заключаться расширение сотрудничества. Amazon также будет использовать новейшие адаптеры Nvidia для своей службы Amazon EC2. Речь об ускорителях GH200, H200, L40S и L4. В целом в пресс-релизе сказано, что компании объединят лучшее из своих технологий — от новейших многоузловых систем Nvidia с графическими процессорами, процессорами и программным обеспечением искусственного интеллекта нового поколения до расширенной виртуализации и безопасности системы AWS Nitro, межсоединения Elastic Fabric Adaptor (EFA) и UltraCluster. Источник https://www.ixbt.com/news/2023/11/29/nvidia-amazon-ceiba-65-exaflops-fp32-fp64.html |
ЦРУ обеспокоено возможностью Китая получить доступ к самому мощному суперкомпьютеру для обучения ИИ, основанному на чипах размером с iPad
Речь о системе Condor Galaxy Из-за всё новых и новых санкций США Китай не может получать новейшие ускорители для ИИ и многое другое, что также связано с искусственным интеллектом. Однако теперь у правительства США появились опасения, что Китай всё же получит доступ к подобным технологиям, причём не просто так, сразу к самому производительному суперкомпьютеру для обучения ИИ. https://www.ixbt.com/img/n1/news/202...arge_large.jpg Фото: Cerebras Речь о системе Condor Galaxy, которая сама по себе уникальна и крайне необычна, но об этом мы уже писали. Систему эту строит компания G42 из ОАЭ. Как сообщается, компания, очевидно, контролируется шейхом Тахнуном бен Заидом и имеет связи с китайскими фирмами, которые США считают угрозой безопасности. В том числе с Huawei. Согласно данным New York Times, ЦРУ опасается, что сотрудничество G42 с китайскими компаниями может привести к тому, что что G42 станет каналом передачи секретных американских технологий и генетических данных. Кроме того, Китай получит доступ к невероятно мощному суперкомпьютеру. Суть в том, что Condor Galaxy будет состоять из нескольких одинаковых установок (CG1, CG-2 и так далее), размещённых в разных странах. Всего их будет девять, и лишь некоторые разместятся в США. ЦРУ выражает обеспокоенность о четырёх, но не уточняет, где будут размещены эти четыре системы. Напомним, Condor Galaxy — это уникальное решение. Каждый из кластеров CG состоит из 64 модулей, причём каждый модуль фактически содержит лишь один чип. Речь о микросхеме Cerebras Wafer Scale Engine 2 (WSE-2) размером с iPad, которая содержит 850 000 ядер. В итоге только одна система CG имеет производительность в 4 ExaFLOPS (FP16), а суммарная производительность всего суперкомпьютера составит невероятные 36 ExaFLOPS. Это очень и очень много, правда, буквально сегодня Nvidia и Amazon объявили о постройке суперкомпьютера Ceiba с производительностью в этом же режиме уже в 65 ExaFLOPS. Источник https://www.ixbt.com/news/2023/11/2...ompjuteru-dlja-obuchenija-ii-osnovannomu.html |
Dell построит ИИ-кластер из 10 тыс. NVIDIA H100 для компании Imbue
Независимая исследовательская ИИ-компания Imbue и Dell Technologies объявили о заключении соглашения по созданию нового высокопроизводительного вычислительного кластера на основе серверов PowerEdge для обучения базовых моделей. Проект оценивается в $150 млн. Imbue разрабатывает собственные базовые ИИ-модели, оптимизированные специально для рассуждений: они способны при необходимости запрашивать дополнительную информацию, анализировать и критиковать свои собственные результаты, а также разбивать сложную задачу на несколько более простых для повышения эффективности выполнения. https://3dnews.ru/assets/external/il...96726/dell.jpg Источник изображения: Dell Imbue уже использует кластер на базе серверов Dell PowerEdge XE9680 с ускорителями NVIDIA H100. Новый проект предполагает развёртывание платформы, насчитывающей почти 10 тыс. чипов H100. Отмечается, что Imbue и Dell разработали систему, включающую в себя сравнительно небольшие кластеры, которые позволяют проводить эксперименты с ИИ-моделями на новых архитектурах. Такие узлы могут быть объединены в крупный кластер для эффективного обучения крупномасштабных базовых моделей. Основная цель Imbue заключается в создании специализированных ИИ-агентов, не требующих постоянного контроля со стороны пользователей. Они смогут выполнять самые разные задачи, включая написание программного кода, анализ сложных данных и пр. Ранее в текущем году Imbue привлекла на развитие $200 млн. Деньги поступили в том числе от NVIDIA. Источник https://servernews.ru/1096726 |
IBM поможет NASA в создании ИИ-основы для погодных и климатических приложений
Национальное управление по аэронавтике и исследованию космического пространства (NASA) и компания IBM объединились, чтобы создать базовую модель искусственного интеллекта для погодных и климатических приложений. Объединение научных знаний с технологиями искусственного интеллекта, как ожидается, позволит создать модель, которая предложит «значительные преимущества по сравнению с существующими технологиями». https://3dnews.ru/assets/external/il...96744/1226.jpg Источник изображения: TheDigitalArtist / Pixabay Современные ИИ-модели, такие как GraphCast и Fourcastnet, генерируют прогнозы быстрее, чем традиционные метеорологические модели. Однако IBM отмечает, что всё это эмуляторы искусственного интеллекта, а не базовые модели, которые лежат в основе генеративных алгоритмов. Эмуляторы искусственного интеллекта способны формировать прогнозы погоды на основе используемых для обучения данных, но они лишены других приложений и возможностей, которыми можно наделить базовую модель. NASA и IBM планируют создать ИИ-модель, которая будет иметь расширенную доступность по сравнению с уже используемыми технологиями, а также сумеет обрабатывать больше типов данных. Ещё одной ключевой целью является повышение точности прогнозирования. Ожидается, что алгоритм будет успешно справляться с прогнозированием метеорологических явлений, а также определением условий, способствующих формированию различных явлений, от турбулентности самолёта до лесных пожаров. Ранее в этом году NASA и IBM выпустили другую ИИ-модель, которая использует данные со спутников аэрокосмического ведомства для геопространственной разведки и является крупнейшей геопространственной моделью на базе ИИ с открытым исходным кодом. С момента запуска эта модель использовалась для отслеживания и визуализации деятельности по посадке и выращиванию деревьев в Кении. Она также задействована для анализа климатических условий на территории ОАЭ. Источник: https://3dnews.ru/1096744/nasa-i-ib...-ii-dlya-pogodnih-i-klimaticheskih-prilogeniy |
В МТУСИ разработали модель нейросети для распознавания мошеннических банковских транзакций
В университете сообщили, что модель уже на этой стадии готовности может применяться в качестве первой линии защиты от интернет-мошенников МОСКВА, 2 декабря. /ТАСС/. Модель нейросети для распознавания мошеннических банковских транзакций разработали ученые Московского технического университета связи и информатики (МТУСИ). Как рассказали ТАСС в университете, модель уже на этой стадии готовности может применяться в качестве первой линии защиты от интернет-мошенников. Задача разработанной в МТУСИ модели сверхточной нейронной сети - распознавание мошеннических транзакций. Для реализации нейросети был использован набор данных веб-сайта Kaggle, состоящих из транзакций, осуществленных с помощью кредитных карт. По словам руководителя пресс-службы МТУСИ Алины Хакимзяновой, благодаря анализу и обработке данных и обучению в течение 40 эпох (эпоха - однократное прохождение всех обучающих примеров через нейронную сеть) удалось добиться очень хороших результатов: модель нейросети успешно обобщается на неизученные данные и имеет очень высокую точность в распознавании мошеннических действий. Особенность новой модели в том, что разработка проводилась на базе уже примененной нейросети, что способствовало более фундаментальному исследованию в работе с нейронной моделью для распознавания мошеннических транзакций. Полученная модель способна учитывать большое количество определенных закономерностей, по которым можно распознать противоправные действия, и имеет достаточно хорошие показатели по сравнению с аналогами, отмечают авторы разработки. По их словам, при обучении нейросети дополнительно учитывались и такие данные, как тип использованной банковской карты, характеристики устройства, с помощью которого была совершена банковская транзакция. Еще одна особенность новой модели в том, что она учитывает определенные закономерности, по которым можно распознать противоправные действия. Например, при фильтрации транзакций анализируются временные метки и определяется, как давно человек открыл счет в банке и в какой организации он обслуживается. "Работа над исследованием продолжается. В дальнейшем будет проведено более фундаментальное обучение и тестирование работы нейросети. Хотя существенно усложняет работу то, что банковская информация является конфиденциальной, данные о проведенных транзакциях получить практически невозможно. Модель сверточной нейронной сети может быть применена в качестве первой линии защиты от интернет-мошенничества", - рассказала доцент кафедры "Интеллектуальные системы в управлении и автоматизации" МТУСИ к.п.н. Ирина Яблочникова. Источник https://tass.ru/ekonomika/19440507 |
HPE и NVIDIA представили совместное решение для корпоративного ИИ, а HPE анонсировала LLM-платформу Project Ethan
Hewlett Packard Enterprise (HPE) объявила о расширении стратегического сотрудничества с NVIDIA с целью создания инструментов для генеративного ИИ. Совместно разработанное, предварительно настроенное решение позволит предприятиям любого размера использовать собственные данные для быстрой настройки посредством RAG базовых ИИ-моделей, которые были обучены на больших наборах данных и могут быть адаптированы для выполнения различных задач от периферии до облака. HPE и NVIDIA также предоставляют в рамках сотрудничества полнофункциональные готовые решения для обработки приложений ИИ. Эти решения объединяют ПО фирменные среды разработки HPE для машинного обучения, HPE Ezmeral, платформы HPE ProLiant и HPE Cray, а также программный пакет NVIDIA AI Enterprise, включая NVIDIA NeMo. Аппаратная составляющая включает 16 серверов HPE ProLiant DL380a, несущих в общей сложности 64 ускорителя NVIDIA L40S и использующих DPU NVIDIA BlueField-3 и NVIDIA Spectrum-X. https://3dnews.ru/assets/external/il...897/image.jpeg Источник изображений: HPE Программно-аппаратный комплекс, например, позволяет дообучить на собственных данных модель Llama 2 с 70 млрд параметров. Решение включает ПО HPE Machine Learning Development Environment с новыми возможностями в области генеративного ИИ для быстрого прототипирования и тестирования моделей, а также ПО HPE Ezmeral с поддержкой ускорителей, которое упростит развёртывания и ускорит подготовку данных для ИИ-нагрузок в гибридном облаке. Партнёры HPE смогут заказать решение уже в I квартале 2024 года. Заодно HPE анонсировала платформу Project Ethan, ориентированную на оркестрацию ресурсов в локальных или публичных облаках для работы с большими языковыми моделями (LLM). Кроме того, компания сообщила, как планирует более полно адаптировать платформу Greenlake для работы с ИИ. Например, OpsRamp, ИИ-решение для управления ИТ-операциями (IT Operations Management, ITOM), приобретённое компанией в марте этого года, уже доступно по подписке в Greenlake. https://3dnews.ru/assets/external/il...6897/paths.jpg В OpsRamp добавлен HPE Sustainability Insight Center — инструмент для отслеживания и мониторинга энергопотребления ИТ-ресурсов, которыми управляет организация. Это было сделано для удобства клиентов, которые обучают и используют модели ИИ, и хотят контролировать потребление энергии. Обучение и инференс LLM, по словам компании, требует больших затрат электроэнергии — 1200 МВт·ч и 250 МВт·ч в день соответственно. Инструмент позволит управлять энергопотреблением с учётом возможностей компании. Также HPE представила пакет ПО Greenlake Hybrid Operations, объединяющий Ezmeral, OpsRamp с Sustainability Insight Center и набор решений для резервного копирования и восстановления HPE Data Protection Suite. Он позволит клиентам управлять, контролировать и защищать свои данные и рабочие нагрузки от периферии до облака. https://3dnews.ru/assets/external/il...897/hpe_ai.jpg В ближайшее время будет представлено и решение HPE Private Cloud Solutions для ИИ, основанное на аппаратных решениях HPE, обновлённой платформе HPE Greenlake for File Storage (эффективная ёмкость до 250 Пбайт, до 700 Гбайт/с на чтение и до 200 Гбайт/с на запись), OpsRamp и Zerto Cyber Resilience Vault. Последнее решение представляет собой автономную платформу для данных, которая помогает восстановить работу после атаки программы-вымогателя, если данные зашифрованы или удалены. Источник https://servernews.ru/tags/hardware |
IBM представила свой мощнейший квантовый процессор Heron и первый модульный квантовый компьютер
На ежегодной конференции IBM по квантовым вычислениям Quantum Summit 2023 корпорация представила новейший 133-кубитный квантовый процессор Heron и первый модульный квантовый компьютер IBM Quantum System Two на его базе. IBM также анонсировала процессор Condor с 1121 кубитом, который имеет на 50 % большую плотность кубитов. По словам главного квантового архитектора IBM Маттиаса Стефана (Mattias Stephan), усилия по созданию этого устройства «открыли путь к масштабированию» квантовых вычислений. https://3dnews.ru/assets/external/il...bm-quantum.jpg Источник изображений: IBM Процессор Condor является частью долгосрочных исследований IBM по разработке крупномасштабных квантовых вычислительных систем. Хотя он располагает огромным количеством кубитов, производительность его сравнима с 433-кубитным устройством Osprey, дебютировавшим в 2022 году. Это связано с тем, что простое увеличение количества кубитов без изменения архитектуры не делает процессор быстрее или мощнее. По словам Стефана, опыт, полученный при разработке Condor и предыдущего 127-кубитного квантового процессора Eagle, проложил путь к прорыву в перестраиваемой архитектуре процессора Heron. https://3dnews.ru/assets/external/il..._01-scaled.jpg «Heron — наш самый производительный квантовый процессор на сегодняшний день, он обеспечивает пятикратное снижение ошибок по сравнению с нашим флагманским устройством Eagle, — сказал Стефан. — Это было путешествие, которое готовилось четыре года. Он был разработан с учётом модульности и масштабирования». Ранее в этом году компания IBM продемонстрировала, что квантовые процессоры могут служить практическими платформами для научных исследований и решения проблем химии, физики и материаловедения, выходящих за рамки классического моделирования квантовой механики методом грубой силы. После этой демонстрации исследователи и учёные из многочисленных организаций, включая Министерство энергетики США, Токийский университет, Q-CTRL и Кёльнский университет, использовали квантовые вычисления для решения более крупных и сложных реальных проблем, таких как открытие лекарств и разработка новых материалов. «Мы твёрдо вступили в эпоху, когда квантовые компьютеры используются в качестве инструмента для исследования новых рубежей науки, — сказал Дарио Хил, старший вице-президент и директор по исследованиям IBM. — Поскольку мы продолжаем совершенствовать возможности масштабирования квантовых систем и приносить пользу посредством модульной архитектуры, мы будем и дальше повышать качество стека квантовых технологий промышленного масштаба». IBM Quantum System Two размещена на объекте в Йорктаун-Хайтс, Нью-Йорк. Эта система на базе трёх квантовых процессоров Heron станет основой архитектуры квантовых вычислений IBM следующего поколения. Она сочетает в себе масштабируемую криогенную инфраструктуру и классические серверы с модульной электроникой управления кубитами. В результате систему можно будет расширять в соответствии с будущими потребностями, и «апгрейдить» при появлении следующего поколения квантовых процессоров. https://3dnews.ru/assets/external/il...m-system-2.jpg Стремясь облегчить разработчикам и инженерам работу с квантовыми вычислениями, IBM анонсировала выход в феврале 2024 года версии 1.0 набора программных инструментов с открытым исходным кодом Qiskit, который позволяет создавать квантовые программы и запускать их на IBM Quantum Platform или симуляторе. В дополнение к Qiskit, IBM анонсировала Qiskit Patterns — способ, позволяющий квантовым разработчикам легко создавать код и оптимизировать квантовые схемы с помощью Qiskit Runtime, а затем обрабатывать результаты. «С помощью Qiskit Patterns и Quantum Serverless вы можете создавать, развёртывать, запускать квантовые программы и в будущем предоставлять доступ к ним другим пользователям», — заявил Джей Гамбетта (Jay Gambetta), вице-президент IBM Quantum. На презентации он продемонстрировал использование генеративного ИИ на базе Watson X для создания квантовых схем при помощи базовой модели Granite, обученной на данных Qiskit. «Мы действительно видим всю мощь генеративного ИИ для облегчения труда разработчиков», — заключил Гамбетта. Источник https://3dnews.ru/1096936/ibm-preds...r-heron-i-perviy-modulniy-kvantoviy-kompyuter |
Новость декабря и следующих 100 лет развития компьютерной техники
IBM раскрыла планы развития квантовых компьютеров на ближайшие 10 лет: системы на 100 000 кубитов и с коммерческой ценностью На саммите IBM Quantum исследователи анонсировали квантовый компьютер Quantum System Two на базе трёх процессоров IBM Heron и поделились дальнейшими планами по масштабированию квантовых систем с уменьшением ошибок, а также разработке программного обеспечения для них. IBM объявила о своём намерении преодолеть порог в 100 000 кубитов. В случае реализации этих планов, IBM может создать первую в мире платформу для универсальных квантовых вычислений. https://3dnews.ru/assets/external/il...ch-quantum.jpg Источник изображений: IBM Квантовые вычисления используют свойства субатомных частиц, которые позволяют им находиться в разных состояниях одновременно. Благодаря этому квантовые машины могут одновременно выполнять большое количество вычислений и потенциально решать проблемы, выходящие за рамки возможностей традиционных компьютеров. Но кубиты, на которых основаны системы, нестабильны и сохраняют свои квантовые состояния лишь в течение очень коротких периодов времени, внося ошибки или «шум» в вычисления. Использование возможностей квантовой механики — непростая задача. Квантовые системы требуют чрезвычайно низких температур, хрупки по своей природе и подвержены декогеренции. Точное манипулирование кубитами и измерение их состояний является серьёзной проблемой, а для успешного масштабирования квантовой системы частоту ошибок необходимо снизить с одной на тысячу до одной на миллион. IBM заявила, что новые научные достижения её систем ознаменовали конец первой, экспериментальной фазы разработки, длившейся последние семь лет. Эта фаза ознаменовалась соединением достаточного количества кубитов вместе для проведения вычислений, разработкой способов управления кубитами для практического измерения их состояний и созданием первых квантовых алгоритмов. По мнению IBM, сейчас человечество вступило во вторую фазу. Исследования сосредоточатся на характеристиках квантового оборудования, уменьшении и коррекции ошибок, а также проверке работоспособности приложений. На сегодняшний день IBM опубликовала около 2595 исследовательских работ со своими идеями и достижениями в этой области. К концу 2024 года компания планирует создать восемь центров квантовых вычислений в США, Канаде, Японии и Германии, чтобы обеспечить широкий доступ к Quantum System Two для исследователей. https://3dnews.ru/assets/external/il...-computing.jpg Третья фаза должна расширить возможности масштабирования и обеспечить исправление ошибок. В IBM уверены, что достижение требуемого уровня коррекции ошибок ближе, чем представлялось ранее. Эта уверенность основана на новых исследованиях, в частности, на новой технологии межсоединений, обеспечивающей беспрецедентное масштабирование квантовых систем с тысячами кубитов. Новая дорожная карта IBM Quantum подробно описывает программное обеспечение и аппаратные технологии, необходимые для обеспечения квантового преимущества, используя которые квантовая система сможет решать задачи, не доступные для традиционных компьютеров. Нерешённые проблемы в области искусственного интеллекта, химии, финансовых услуг, наук о жизни, физики и фундаментальных исследований могут, наконец, стать решаемыми, что сделает результаты близкими для человечества. Зелёные галочки на дорожной карте отмечают уже достигнутые этапы. https://3dnews.ru/assets/external/il...um-roadmap.jpg Следующим крупным достижением в области квантовых вычислений должен стать в 2025 году процессор Kookaburra, который выступит в роли «базового строительного блока», из которых будут строиться масштабируемые системы с коррекцией ошибок в режиме реального времени. В IBM заявили, что исследователи также пытаются использовать квантовые системы для поиска корреляций в больших объёмах данных и решения так называемых проблем оптимизации, которые могут помочь улучшить бизнес-процессы. Текущая дорожная карта IBM формирует представление одного из ведущих разработчиков квантовых вычислений о дальнейшем развитии этой сферы на ближайшие десять лет. Ожидания того, что квантовые системы к настоящему времени будут близки к коммерческому использованию, в последние годы вызвали волну финансирования этой технологии. Но признаки того, что бизнес-приложения отстают от ожиданий, привели к предупреждениям о возможной «квантовой зиме» ослабления доверия инвесторов и финансовой поддержки. https://3dnews.ru/assets/external/il...antum-path.jpg Исследователи IBM убеждены, что квантовые вычисления начинают демонстрировать свою востребованность в качестве важнейшего инструмента научных исследований. «Впервые у нас есть достаточно большие и мощные системы, чтобы с их помощью можно было выполнять полезную техническую и научную работу» — заявил руководитель отдела исследований IBM Quantum Дарио Хил (Dario Gil). Он также отметил, что «видит очень здоровую промышленную базу, которая инвестирует в технологии», а компании, использующие квантовые системы IBM в рамках своей научно-исследовательской деятельности, продолжают инвестировать «циклически». «Пройдёт некоторое время, прежде чем мы перейдём от научной ценности к, скажем так, коммерческой ценности, — уверен Джей Гамбетта (Jay Gambetta), вице-президент IBM по квантовым технологиям. — Но, по моему мнению, разница между исследованиями и коммерциализацией становится все меньше». Источник: https://3dnews.ru/assets/external/illustrations/2023/12/04/1096941/ibm-quantum-roadmap.jpg |
Meta✴ и IBM объединили силы для создания открытого Альянса ИИ
Meta✴ и IBM присоединились к более чем 40 компаниям и организациям для создания отраслевой группы, ориентированной на разработку ИИ на основе открытого исходного кода. Эта инициатива, получившая название AI Alliance, направлена на обмен технологиями и уменьшение рисков в этой динамично развивающейся отрасли. https://3dnews.ru/assets/external/il...sa-ii-main.jpg Источник изображения: geralt / Pixabay Альянс ИИ сфокусирован на ответственном развитии технологий ИИ, что подразумевает разработку инструментов их защиты и безопасности. Согласно заявлению, группа также стремится увеличить количество открытых ИИ-моделей, контрастируя с проприетарными ИИ-системами, которые предпочитают некоторые компании. В рамках инициативы планируется разработка нового оборудования, сотрудничество с академическими кругами и исследовательскими организациями. Приверженцы технологии ИИ с открытым исходным кодом считают этот подход более эффективным для разработки сложных систем. В последние месяцы Meta✴ представила открытые версии своих больших языковых моделей, которые лежат в основе ИИ-чат-ботов. «Мы считаем, что разработка ИИ должна быть открытой — так большее количество людей сможет получить доступ к преимуществам, создавать инновационные продукты и работать над безопасностью», — заявил Ник Клегг (Nick Clegg), президент Meta✴ по международным вопросам. Помимо Meta✴ и IBM в числе участников Альянса ИИ значатся такие технологические компании, как Oracle, AMD, Intel и Stability AI, а также академические и исследовательские учреждения, такие как Университет Нотр-Дам (UND) и Массачусетский открытый облачный Альянс (MOC Alliance). Предполагается создание управляющего совета и технического надзорного комитета для координации деятельности и разработки стандартов. Недавние события в компании OpenAI, повлёкшие увольнение и последующее восстановление в должности генерального директора Сэма Альтмана (Sam Altman), усилили споры о необходимости прозрачности в разработке мощных ИИ-технологий. Тем не менее, OpenAI не упоминается среди участников новоиспечённого альянса. Упомянутая инициатива может стать значительным шагом на пути к более открытому и безопасному будущему ИИ, способствуя балансу между инновациями и этическими стандартами в стремительно развивающейся сфере. Источник: https://3dnews.ru/1096974/meta-i-ibm-obedinili-sili-dlya-sozdaniya-otkritogo-alyansa-ii |
Нейросеть из мемристоров
https://cdnn21.img.ria.ru/images/07e...247d3.jpg.webp Пластина с тестовыми кристаллами, содержащими функциональные блоки на основе мемристоров - РИА Новости, 1920, 05.12.2023 © Фото : пресс-служба ННГУ/Андрей Скворцов Метод управления пачечной динамики нейронных сетей предложили ученые Университета Лобачевского. По их словам, им впервые в мире удалось имитировать один из ключевых информационных процессов мозга с помощью модели особых электронных устройств, мемристоров. Результаты опубликованы в журнале Mathematics. Мемристоры – недавно разработанный тип электронной элементной базы, который, как объяснили специалисты, воспроизводит работу биологических синапсов, передающих нервный импульс между нейронами. По словам исследователей Национального исследовательского Нижегородского государственного университета им. Н.И. Лобачевского (ННГУ), использование мемристивных устройств сегодня все более актуально в разных сферах, эти устройства дают возможность разрабатывать новые вычислительные архитектуры, используя их параллелизм, энергонезависимость и низкое энергопотребление, но сейчас почти отсутствуют работы, посвященные применению мемристоров в функциональных биологических системах. Специалисты ННГУ предложили модель, описывающую способ управления пачечной динамики нейронной сети с помощью мемристоров. Аналогичных работ сегодня в мире нет, отметили ученые. Исследование, по словам авторов, является важным шагом в разработке инвазивных нейроинтерфейсов и имеет большую ценность для развития методов диагностики и терапии эпилепсии. « "Мы показали, как с помощью мемристоров, имитирующих пластичность, зависящую от времени спайков, или STDP, можно осуществлять управление динамикой нейронной сети. В нейробиологических экспериментах было показано, что STDP является важнейший элемент в регуляции синхронной активности мозга. STDP определяет силу связей между нейронами и позволяет моделировать те процессы развития нервной системы, которые зависят от активности", – рассказал доцент кафедры нейротехнологий Института биологии и биомедицины Университета Лобачевского Сергей Стасенко. https://cdnn21.img.ria.ru/images/07e...f2568.jpg.webp Процесс измерения характеристик мемристоров в лаборатории мемристорной наноэлектроники ННГУ (работу выполняет сотрудник лаборатории - студент ННГУ Юрий Слиняков) - РИА Новости, 1920, 04.12.2023 © Фото : пресс-служба ННГУ/Андрей Скворцов Процесс измерения характеристик мемристоров в лаборатории мемристорной наноэлектроники ННГУ (работу выполняет сотрудник лаборатории - студент ННГУ Юрий Слиняков) По словам ученых, применение мемристоров позволит разработать целое семейство новых электронных устройств на “мозгоподобных” принципах, обладающих повышенной функциональностью относительно привычной электроники. "Мы также показали, как мемристивное устройство интегрируется в биологически правдоподобную модель регуляции динамики нейронной сети. Наша модель не только демонстрирует эффекты сетевой регуляции, как в биологическом мозге, но и состоит из элементов, которые можно воплотить в "железе", – подчеркнул Стасенко. В работе специалистов ННГУ использовалась математическая модель мемристоров, так как серийное производство мемристоров-микрочипов еще не начато, объяснили ученые. "Это в первую очередь фундаментальное исследование на стыке математики, нейробиологии, физики и материаловедения, цель которого – дать новые возможности в области прикладных нейроморфных вычислительных систем", – отметил Стасенко. В дальнейшем научный коллектив намерен разработать математические модели и устройства для нейроморфных вычислительных систем, которые позволят имитировать более сложные информационные функции мозга. Источник https://ria.ru/20231205/nauka-1913722315.html |
Учёные скрестили мемристор и память с фазовым переходом — получилась память быстрее и лучше, чем флеш
(примечание копипаст0ра: - еще один вариант создание одной из разновидностей нейросети)- смотри новость постом выше Исследователи из Университета Рочестера разработали новый тип энергонезависимой памяти, взяв за основу хорошо известную память ReRAM (резистивную) и память PRAM (с фазовым переходом). Гибрид оказался настолько хорош, что со временем может стать наследником популярной флеш-памяти. https://3dnews.ru/assets/external/il...pram_reram.jpg Как отмечают учёные, каждой памяти по отдельности — резистивной (её иногда называют мемристором) и с фазовым переходом — присущи как свои достоинства, так и недостатки. Резистивная память мало потребляет, но запись данных в виде нитевидной обратимой ионной проводимости бывает очень ненадёжной. Память с фазовым переходом без нареканий хранит информацию, но операции записи и стирания, которые переводят ячейку в кристаллическое состояние из аморфного и обратно, очень и очень энергозатратные. Предложенный учёными гибрид создаёт такое состояние вещества, при котором оно оказывается на грани устойчивости с точки зрения кристаллической структуры. Малейший сдвиг в одну из сторон переводит ячейку памяти в кристаллическое состояние с низким или высоким удельным сопротивлением. Этот сдвиг инициируется электромагнитным полем таким же, как при переключении транзистора. «Мы создали его, по сути, просто растягивая материал в одном направлении и сжимая его в другом, — говорят авторы работы. — Это позволяет увеличить производительность на порядки. Мы видим путь, на котором это может оказаться в домашних компьютерах в качестве сверхбыстрой и сверхэффективной формы памяти. Это может иметь большое значение для вычислительной техники в целом». Фактически новая память представляет собой такой деформированный двумерный материал, как дителлурид молибдена (MoTe2). Напряженные металлические тонкие плёнки MoTe2 формируются в контакты, которые вызывают управляемый деформацией фазовый переход полуметалла в полупроводник. Фазовый переход, в свою очередь, формирует вертикальный транспортный канал (мемристор) с полупроводниковым MoTe2 в качестве активной области. Благодаря деформации канал переключается при напряжении всего 90 мВ. Время переключения составляет 5 нс, время удержания свыше 105 с, а ожидаемое число циклов переключения свыше 108. Напряжение переключения и число циклов регулируется как механически (при производстве), так и электрически в процессе регулировки прибора. Эксперименты с прототипами оказались многообещающими, что позволит учёным со временем развить успех. Источник: https://3dnews.ru/1096984/uchyonie-...hodom-ona-zamenit-fleshpamyat-i-budet-luchshe |
Написанный ИИ научно-фантастический рассказ впервые в истории победил на литературном конкурсе в Китае
Когда профессор пекинского Университета Цинхуа Шен Ян (Shen Yang) решил написать научно-фантастическую новеллу о метавселенной и человекоподобных роботах, он обратился за вдохновением к искусственному интеллекту (ИИ). В итоге ИИ создал всю его книгу, которая затем была удостоена национальной премии в области научной фантастики. Но ИИ представляет угрозу для писателей и наносит непоправимый ущерб литературному языку, утверждает издатель произведения. https://3dnews.ru/assets/external/il...stic_novel.jpg Иллюстрации к новелле также были созданы искусственным интеллектом. Источник изображения: Weibo/Capital Television Новелла «Страна воспоминаний» на китайском языке объёмом почти 6000 знаков, написанная Шэнь Яном, профессором университетской школы журналистики и коммуникаций, стала одним из победителей молодёжного конкурса научно-популярной фантастики в Цзянсу, сообщает газета Jinan Times из провинции Шаньдун. Шэнь создал научно-фантастический рассказ на основе черновика в 43 000 знаков всего за три часа с помощью 66 подсказок. Уникальная сюжетная линия закладывает основу с первых трёх строк, сгенерированных искусственным интеллектом. На краю метавселенной находится «Страна воспоминаний» — запретное царство, куда людям вход воспрещен. Здесь обитают сплошные иллюзии, созданные гуманоидными роботами и ИИ, потерявшими память. Любой нарушитель, будь то человек или искусственное существо, лишится памяти и навсегда останется в её запретных объятиях. В центре сюжета — исследовательница метавселенной по имени Ли Сяо (Li Xiao), которая в реальном мире работала нейроинженером. Случайно потеряв все воспоминания о своей семье во время эксперимента, она заинтересовывается легендой о Стране Воспоминаний и надеется, что в метавселенной ей удастся восстановить утраченные воспоминания… Новелла была представлена на конкурс, проводимый Ассоциацией писателей-фантастов Цзянсу. На октябрьской церемонии награждения рассказ получил второй приз наряду с 17-ю другими рассказами, что означает, что он получил голоса трёх из шести членов жюри. Согласно отчёту конкурса, только один из судей был уведомлен о том, что Шэнь использовал ИИ в своей работе. Но другой судья, который изучал вопрос создания контента с использованием ИИ, понял, что работа Шена была сгенерирована ИИ. Судья сказал, что не стал голосовать за работу, потому что она не соответствовала стандартам и ей «не хватало ярких эмоций». «После того как мы подготовили десятки подсказок, ИИ сгенерировал весь контент — начиная от имени автора, названия и текста и заканчивая иллюстрациями к тексту. Его попросили написать в литературном стиле Кафки, — комментирует Шен, ссылаясь на характерный стиль богемного писателя Франца Кафки, который предполагает изображение ужасающих ситуаций в объективном тоне. — Впервые в истории литературы и искусственного интеллекта написанный ИИ рассказ получил литературную награду». Процесс создания этой истории будет подробно описан и обнародован «для всех, кто хотел бы узнать, как создать хорошую художественную литературу с помощью ИИ». Согласно докладу Фу Ручу (Fu Ruchu), директора редакционного отдела китайского издательства «Народная литература», было нелегко распознать, что произведение Шена было создано искусственным интеллектом. «Писатели в жанре научной фантастики часто уделяют больше внимания творчеству и описанию сцен, чем языку, — замечает Фу. — Я думаю, что этот рассказ хорошо написан и логически последователен». Вместе с тем, Фу заявила, что ИИ может представлять угрозу для авторов остросюжетных романов и научной фантастики, и предупредила о том, что, по её мнению, ИИ может нанести непоправимый ущерб литературному языку. «Чувство и ритм языка в этом рассказе очень слабые. Я думаю, что в будущем с ростом влияния ИИ на литературу яркие эмоции языка могут стать ещё более редким явлением», — заключила она. Источник: https://3dnews.ru/1097784/napisanna...la-pobeditelem-natsionalnogo-konkursa-v-kitae |
Представлена первая квантовая память, работающая в рентгеновском диапазоне — помехоустойчивая и плотная
Международная группа учёных сообщила о создании основ для первой в мире квантовой памяти, работающей в рентгеновском диапазоне. В перспективе это позволит разработать более плотную и помехоустойчивую память для квантовых компьютеров, которые сегодня ограничены по времени для проведения квантовых операций. Переход на «рентгеновскую» память увеличит время хранения квантовых состояний, что приблизит практическую ценность квантовых вычислений. https://3dnews.ru/assets/external/il...9235/foton.jpg Иллюстрация гребенки ядерных частот, отображающей одиночные фотоны, визуализированные в логарифмической шкале. Источник изображения: DESY/Sven Velten Современные модели квантовой памяти, если говорить о фотонах, предполагают взаимодействие света и атомов. Некоторое время назад группа профессора Техасского университета A&M Ольги Кочаровской предложила перейти на новый способ хранения и высвобождения импульсов рентгеновского излучения на уровне одного фотона, когда фотон воздействует не на атом, а непосредственно на его ядро. В новом исследовании группа учёных Техасского университета A&M (Texas A&M University) и их коллеги из Германии и Франции воспользовались теоретическими наработками группы Кочаровской и провели эксперимент, доказавший осуществимость идеи, о чём они сообщили в статье в журнале Science Advances. Удержать неподвижно свет (фотон) — произвести своего рода запись информации — это трудноосуществимая задача. Сделать это можно с помощью таких квазистационарных состояний, как спиновая или поляризационная волна. «Квантовая память является незаменимым элементом квантовой сети, обеспечивающим хранение и извлечение квантовой информации, — пояснила Кочаровская. — Фотоны являются быстрыми и надежными носителями квантовой информации, но их трудно удерживать в неподвижном состоянии на случай, если эта информация понадобится позже. Удобный способ добиться этого — запечатлеть эту информацию в квазистационарной среде в форме поляризационной или спиновой волны с большим временем когерентности и высвободить её обратно посредством повторного излучения исходных фотонов». Идея была проверена с использованием синхротронных источников PETRA III в Немецком электронном синхротроне (DESY) в Гамбурге и Европейском центре синхротронного излучения во Франции, что привело к первой реализации квантовой памяти в диапазоне жёсткого рентгеновского излучения. Эксперимент строился на создании частотной гребёнки в спектре поглощения. Рентгеновские импульсы со спектром поглощения, соответствующим этой гребёнке, как бы запоминались ядерными мишенями и могли быть переизлучены с определённой задержкой — как бы прочитаны. Перенос этого механизма, как сказано выше, произошёл в рентгеновский диапазон для воздействия на ядра атомов. Более мелкие ядра являются менее чувствительными к воздействию внешних магнитных полей и других возмущений, а квантовые состояния, как известно, всего этого боятся и разрушаются. Следующие шаги, запланированные командой, включают в себя испускание сохранённых волновых пакетов фотонов по требованию, что может привести к реализации запутанности между различными жёсткими рентгеновскими фотонами — основным ресурсом для квантовой обработки информации. Исследование команды также подчёркивает потенциал распространения оптических квантовых технологий на коротковолновый диапазон, который по своей сути менее «шумный», поскольку помехи в основном «растекаются» по высокочастотным колебаниям. Источник: https://3dnews.ru/1109235/predstavl...e-chastot-pomehoustoychivaya-i-bolee-plotnaya |
| Время: 19:45 |