WarBeast

Видеокарта.

Вот както упустил я рынок видюх, сейчас у меня гтх260.И вот думаю стоит себе подарить карточку поимнтереснее, что посоветуете в районе 15-20к рублеф, тобиш 500-700 бакоф?Имеет смысл брать квадру, или забить и взять за теже деньги 295 ?
Smarty

Буквально на днях меня убедили что лучше брать за 12000XFX GeForce GTX 285, а потом добавить еще одну при необходимости.нежели XFX GeForce GTX 295 за 16000. Разница не такая большаявот кстати тесты 295http://www.theinquirer.net/inquirer/news/1...x295-benchmarksа вот и 285http://www.theinquirer.net/inquirer/news/1...ia-gt285-scores

WarBeast

Ну ваще да =) Уже посмотрел цены.А на счет квадры, имеет смысл в ваве. Просто в максах маях такие тени блики и прочее на квадре.

evgeny

а я к радеону 5870 присматриваюсь

Smarty

Да, хорошая вещица тоже, все на нее запали. только вот пока не ясно что нам Нвидия после нового года представит в альтернативу.

evgeny

у меня два месяца назад видюха сгорела radeon HD 2900, купил временно новую за 1500р. , уже сил нет терпеть. sad.gif

WarBeast

Ати нафиг! Так и не научились дрова делать. Так вы не ответили, в ваве будет смысл от квадры. .или пофиг?

evgeny

проблем с ATI небыло, чего не скажу о GeForce, в Мессии у меня на Гефорсине не было видно текста и интерфейс подглючивал, причем на разных картах от GeForce, с Радеонами все было OK.

WarBeast

Дрова под семерку до сих пор сырые.Нда, покопал инет, понял что вава не умеет пользоваться плюшками квадры и фаиргл... так что 285 нада брать.. или лучше вторую 260... пока в продаже есть =)

Smarty

люди я тут почитал афигенно подробный разбор ATI Radeon HD 5870и что-то мне как то ее захотелось, но вся эта прелесть смущает но не могу понять в чем именно. может вы расскажите?цена в полтора раза меньше чем у 295вот сам обзор http://www.thg.ru/graphic/ati_radeon_hd_5870/index.htmlобратите внимания на GTX 295. =))))а также на производительность дуальных 285 они ровны радику

Styler

Radeon'ы в ДЦ на глас ощутимо быстрее работают. На работе софтквадра 4600 (из 8800GTX), дома Radeon 4850, последний все отлично показывает, пробовал на win7 и на Xp64. Глюков во вьюпортах не заметил.

Smarty

PowerColor Radeon HD 5870Sapphire Radeon HD 5870 GigaByte Radeon HD 5870XFX Radeon HD 5870MSI Radeon HD 5870Цена в среднем 16 000разницу нашел, хотя думал одно и тожеPalit GeForce GTX 295 MSI GeForce GTX 295 MSI GeForce GTX 295ZOTAC GeForce GTX Цена в среднем 15000вот и их разницапосле прочтения того полного обзора все таки думаю склонится к 5870, учитывая что они в дуалах тоже хорошо работают.Что вы думаете на этот счет?

fogr

http://www.ixbt.com/video3/i1009-video.shtml

[MrBig]

Уж сколько говорено про драйверы Radeon, но ничего не меняется. Покупайте Radeon, повезет - все будет хорошо, не повезет - это был ваш выбор.

WarBeast

Так в итоге, ктонить квадру пользовал под вавой или нет ?

Smarty

Еще кстати забыли прл HD 5970

WarBeast

НЕТЬ, ати нафиг. Туже квадру берут не изза скорости а изза стабильности и качества.А у геймерских ати не того не другого, почитать форумы достаточно.

Smarty

так получается надо ждать GT 300? или можно без проблем ставить две 285?

Styler

а давайте сравним производительность и качество! нужна "проблемная" сцена, с большим количеством полигонов и материалов. Посмотрим как оно в GLSL и Multitex показывает и с какой скоростью. p.s. как можно посмотреть количество fps штатными средствами?

WarBeast

Smarty я пока решил дкупить вторую 260...А потом посмотрим...

Smarty

Styler не у всех есть эти карты что бы сравнивать =)

Styler

На вскидку попробовал протестить. дома на core i7-920/Radeon4850 оказалось быстрее чем рабочем Q6600/SoftQuadroFX4600. Думаю, что скорее всего влияет еще и проц, поэтому разница в скорости особой нет. Сцена в 700К тринглов.

WarBeast

Ясна, значит фишки квадры в лайтвэйве не реализованы.Глюки глюки каталиста известны всем, кто умеет смотреть.Итог, 2 игровых инвиды по деньгам и радоваться жизни =)пс: тринглов в сцене быть недолжно =)

Styler

QUOTE
пс: тринглов в сцене быть недолжно =)
Спасибо за замечание, действительно фейсов =). Не хило тогда 1,5 мл. тринглов тянет ЛВ, впечатлен, и силекшин вертексов не сильно медленно происходит на таком большом меше.
QUOTE
Итог, 2 игровых инвиды по деньгам и радоваться жизни =)
А есть уверенность, что SLI будет работать? Не знаю ни одного проф. приложения где оно используется.

WarBeast

Она я так понял заточена также как игрушки.

Styler

QUOTE
Она я так понял заточена также как игрушки.
Ну как бы SLI в проф. использовать бессмысленно, ускоряется только растеризация, прорисовывая кадры/полукадры. Информация о сцене (геометрия, текстуры, шейдеры) копируется сразу в 2 карты поэтому в wire и shade with wire ОНО никогда не ускорит, если только shade и texture, и то чисто теоретически.

Styler

QUOTE
Так а все же скажите более ли менее не расплывчато.если купить 285 и поработать пока на ней а в будущем еще одну 285. стоит ли затея реализации? на сколько месяцев/лет хватит такой реализации?
На данный момент 285 хватит за глаза и уши. OpenGL эволюционирует очень медленно, да и в принципе пока не ясно в какую сторону расти, для удобной работы во вьюпорте все есть, а про реалтайм визуализацию пока говорить очень рано. Железо опережает софт в разы, к сожалению человечество не поспевает за законом Мура, многие реализованные в железе фичи так и остаются невостребованными и их тупо хоронят заживо. Поэтому идти в ногу с прогрессом имея самую инновационную видеокарту не стоит, возможно через пару месяцев ее можно будет выкинуть на помойку, потому что все решили следовать другим стандартом. Нужно рассматривать так, есть такие-то задачи, есть такая то видюха обеспечивающая оптимальную производительность, ее и брать. На будущее лучше не заглядываться. На сколько хватит? Если для моделирования - то на долго, года на 2 точно... и для игр кстати тоже. В ближайшее время пока не появятся новые игровые приставки (PS,XBOX) все будет делаться под DX 9.0c., поэтому и DX10.0/DX10.1/DX11 будут мягко говоря "в пролете", разве что единичные игры для поддержания фичей. А вот DirectComput и OpenCL будут только набирать силу. Но использовать их можно будет только когда утвердятся окончательные стандарты (а это будет минимум через 2 поколения видеокарт, т.е. ~1 год) тогда можно будет говорить про использование в работе, пока все в зачаточном состоянии.Покупка 2-ой карты будет разумно только для игр и просчетов на GPU.

Smarty

Визуализацию в реальном времени уже демонстрировали. http://habrahabr.ru/blogs/3d_graphics/77235/А про ГТ300 есть новости по срокам?

Styler

QUOTE
Визуализацию в реальном времени уже демонстрировали.
Да я в курсе всех приведенных примеров. Но там нет RT кроме примера с CryEngine3 (пожалуй умолчу, каким именно образом удается получить несколько дифузных отскоков wink.gif). Все остальные (iray, vray) используют расчеты на GPU, я об это упомянул выше, но они лишь помогаю с расчетами сложных алгоритмов, это не RT. Могу привести еще пару интересных ссылок:http://furryball.aaa-studio.cz/ - GPU render for Mayahttp://www.studiogpu.com/ - вот это очень прикольная штукасейчас многие работают на тем, чтобы тема "облачных" и GPU вычислений шла только вперед. но вопрос стоял о том, "на что сейчас способна 285 и долго ли ее хватит" и "покупать ли потом 2-ую".отвечу еще разокДля моделирования хватит на долго, для расчетов на GPU, как повезет. Та же CUDA имеет уже 2 спецификации для карт 8xxx-9xxx и 2xx, это вводит ряд ограничений на длинну шейдерных инструкций, наличию рекурсий и пр. Т.е. перед разработчиком встает несколько вопросов: a) равняться на младшие карты б) равняться на старшие карты с) поддержать и то и это.. Не всегда вариант с) бывает возможным, обычно ее отсекают, потому что это бизнес и есть люди (в частности Нвидиа), которым выгодно что бы покупали новые карты. Понимаете к чем у я веду? Сейчас 285 это хорошая считалка, но с выходом GT300(обещали в марте 2010) на нее тихоничко забьют. НО не факт, что в GT300 будет именно тем чипом на который пойдет равнение. Возможны ошибки в ревизии (торопятся все-таки), и пр. недоделки, недоводки.. Возможно что стандартом будет следующая карта после GT300, исправленный вариант, такое было уже много раз. Поэтому пока рано говорить серьезно про GPU применении, разве что о ее текущей реализации. Врай на GPU кажется очень крутым, такая скорость и все такое.. но все-таки прежде нужно пощупать самому, на презентациях все обычно красиво, а на деле куча багов. иРей, кстати, тоже будет иметь ряд "неприятных" ограничений по сравнению с обычной реализацией.