Все новости от 1 декабря 2004 г. Установлен ошеломляющий рекорд скорости передачи данных
Группа ученых нашла способ стремительно передавать гигантские объемы данных по компьютерным сетям, проложив путь к более глубокой глобальной научной кооперации и будущим коммерческим приложениям.
Передавая данные между Питтсбургом и Лос-Анджелесом с постоянной скоростью 101 Гбит/с (что эквивалентно трем DVD-фильмам за одну секунду), так называемая группа High Energy Physics установила рекорд и победила в конкурсе Supercomputing Bandwidth Challenge, нацеленном на повышение быстродействия каналов связи для grid-вычислений.
Скорость в 101 Гбит/с группа поддерживала всего несколько минут в продолжение 90-минутной демонстрации, иногда приподнимаясь чуть выше этой отметки. Но «мы уверены, что сможем обеспечивать пропускную способность свыше 100 Гбит/с часами», — пишет в e-mail профессор физики Калифорнийского технологического института (Caltech) и руководитель группы Харви Ньюман. По его словам, возможны скорости передачи данных в 130-140 Гбит/с.
Исследование указывает путь к будущим приложениям с гораздо более высокими скоростями передачи аудио, видео и других данных. «Оно окажет также глубокое влияние на то, как можно объединить обмен информацией и аудиовизуальное общение в нашей повседневной жизни в невообразимых до сих пор масштабах и с невероятным качеством», — добавил Ньюман.
Группа состоит из специалистов по вычислительной технике, физиков и системотехников из Caltech, Fermilab, CERN, Манчестерского университета, а также университетов Кореи, Бразилии и других стран.
Прежний рекорд скорости передачи данных, установленный той же группой год назад, составлял 23,2 Гбит/с.
По интернету данные удавалось перекачивать с максимальной скоростью около 4,23 Гбит/с, а рекорд для Internet2 составил 6,63 Гбит/с.
Отчасти рекордная скорость передачи данных достигнута благодаря разработанному профессором Caltech Стивеном Лоу протоколу Fast TCP, который лучше предотвращает скопление пакетов, чем стандартный ТСР. Последний определяет скопление по скорости отбрасывания пакетов данных. FAST TCP следит за задержкой пакетов в процессе их перемещения по сети.
Этот метод «обеспечивает более точное и более своевременное измерение скоплений по сравнению с отбрасыванием — источник трафика может отреагировать на скопление прежде, чем повышение его уровня приведет к переполнению буферов маршрутизаторов, и пакеты начнут отбрасываться», — пояснил в интервью по e-mail профессор Лоу.
Скорость передачи данных помогла повысить и построенная аппаратная инфраструктура — включающая несколько 10-гигабитных линий, четыре выделенные длины волны National LambdaRail (целиком оптической сети, связывающей американские университеты), программное обеспечение веб-сервисов и массу других технологий.
Целью эксперимента служит создание технологии, которая позволит физикам всего мира сотрудничать в рамках научных проектов, объединяя компьютеры, расположенные в разных частях света.
Например, в 2007 году CERN начнет экспериментировать с частицами Хиггса, которые, как предполагается, ответственны за избыточную массу во Вселенной и другие явления. В исследования будут вовлечены свыше 2000 ученых из 160 институтов, которым придется обмениваться терабайтами данных в поисках необычных взаимодействий частиц.
Так как данные будут запрашивать множество пользователей во всем мире, передача массивных файлов должна совершаться не за дни, а за часы. Объем данных по этому проекту очень быстро достигнет нескольких петабайт.
Кроме физики элементарных частиц, сетевая технология будет помогать исследователям в области биоинформатики, астрономии, моделирования глобального климата и геонаук.
Проблемой сокращения задержки в глобальных сетях занимается также PlanetLab, проект, возглавляемый Принстонским университетом, Intel и Калифорнийским университетом в Беркли. Другие ищут способы проведения интернет-канала к Марсу.
Для демонстрации своей технологии группа передавала имитируемые физические данные для обработки в CERN, Университет штата Флорида, Fermilab, Caltech, U.C. San Diego и Бразилию. Затем результаты собирались в Питтсбурге и передавались на визуальный дисплей данных. В другой демонстрации организация передавала большие объемы данных между Питтсбургом и Манчестером.
В проекте участвовали компании Cisco Systems, Hewlett-Packard, а также Newisys, которая производит серверы на процессорах AMD Opteron.
Предыдущие публикации:
В продолжение темы:
|
|
| Дима 1 Dec 2004 10:07 AM |
Да ну, нах. Ничто не сравниться с фурой, груженной DVD. |
|
| нц 1 Dec 2004 11:52 AM |
у вашего способа latency time большое... сколь надо времени, чтобы нарезать столько болванок и погрузить в машину? |
|
| Hoc 1 Dec 2004 12:53 PM |
их ненадо нарезать они готовые. а сколько физикам надо времени что-бы собрать эти петабайты ты посчитал ? какой там latency time ? |
|
| A 1 Dec 2004 3:22 PM |
Интересно, а какая скорость передачи данных по шине PCI ? |
|
| geor 1 Dec 2004 3:59 PM |
> Интересно, а какая скорость передачи данных по шине PCI ? на 100 км PCI не смогет ... ЗЫ. что-то с юмором у народа туго :) |
|
| нц 1 Dec 2004 5:06 PM |
да какое время.. собрать все фильмы и порно... |
|
| Black апельсин. 1 Dec 2004 5:24 PM |
кстати DVD это идея не лешной смысла. весь Рунет можно записать на нескольких DVD.или HDD. ( не считая новостые сайты). и рапределить по всей стране. так что бы доступ был и в cеле. например или канал очень слабый. другой вопрос НА КАКИЕ ДЕНЬГИ. те инет сушествует за счет баенрной рекламы. но и прочих крутилок. |
|
| Black апельсин. 1 Dec 2004 5:29 PM |
кстати и вообще давно пора разхдеит инет на СТАТИЧЕСКИй которы меняется раз в месяц.. и денамический.( для него уже html не очень подходит). те дает боьшеи накладный расходы отношения /количесву иноформации. например загрузите какую нибут новсту статью.. статья на 500-1000 байт.. а сама страница подготовленая скриптом. тянет на 300 К.даже не считая банеров( ладно банерыбудет счиать неизмежным злом). zdnet получше так как статье побольше и движек получше. НО почему такоп происзодит да потому что это стало пробелмой поситеилей стайцтов а НЕ созадтелей.. СОЗДАТЕЛЯМ только в чем то выгодно создавать большой трафик. и перенаправлять.. НО они не думаю об узкий посетителях. |
|
| нц 1 Dec 2004 7:54 PM |
1. Весь не влезет 2. это уже сделано, и иногда ради экономии платы за траффик в регионах |
|
| A 1 Dec 2004 8:33 PM |
2 geor: Ты сначала ножницы найди, чтобы бороду этому юмору подрезать :) |
|
| visitor - santanorthpole.org 1 Dec 2004 11:25 PM |
http://www.inauka.ru/computer/article51087.html Самое узкое место war net - скорость передачи данных, то есть то, как быстро данные со спутников будут переданы бойцам... Идеал - чтобы данные объемом с три полнометражных фильма в цифровом формате загружались на терминал военнослужащего за 1 секунду |
|
| fi 2 Dec 2004 7:28 AM |
то Hoc ты бы видел с какой скоростью льет данные детектор. Там чем больше событий - тем лучше ;-))). |
|
| XXX 3 Dec 2004 12:37 PM |
2 visitor: И что он будет деласть с этими "3 полнометражными фильмами в секунду"? Он же их посмотреть не успеет! И их надо будет с такой же скоростью стирать с диска, чтобы не переполнился. :)
|
|
| commodore - commodoreua.fm 6 Dec 2004 2:05 PM |
Опять чувствуешь себя ничтожеством. Всего несколько лет назад 100 гигабайт было просто немеряно много. А сегодня счет на петабайты пошел! Как за этим угнаться?! |
|
|