|
Да, хорошая идея. И я согласен ее поодержать и помочь в реализации
Нет. Идея плохая.
Мне все равно
У меня вот этот ноут : http://rozetka.com.ua/hp_650_h5l62es/p260613/
нифига не греется Intel HD Graphics .
ЗЫ
блин ,
когда я его покупал , жене на 8 Марта , - он тогда стоил на 400 гривен дороже , во как я попал , афигеть .
Последний раз редактировалось RU$L; 12.08.2013 в 20:05.
Ну вот учат, учат нас все эти "Комфи", "Фокстроты" и т. п. маркеты электроники, что в канун праздника всегда дороже. Блин, что мешает купить тот же ноут на пару месяцев раньше, втихаря проверить его и пусть спит до праздника? Брат, прости - ничё личного, просто мысли вслух. Я в 2010 - ом тоже жене на 8 марта новый телефон подарил, но покупал его в конце января.
мне как то все равно что ты не видешь но факт есть фактом начни играть в танки
Проверенно ))
"Amor omnia vincit" | Есть всего три правила: юмор, парадокс, изменение
В метро 2033 мой SLI нагружает вторую видяху просчетом физикса на 50-70% (680ГТХ), при этом взрыв гранаты в закрытом помещении сопровождается адовыми спец-эффектами, разлетающимся кафелем, дымом и проч. Чего совсем нет, если физикс выключить. В LL то-же самое. Не очень критично, но местами очень красиво и правдоподобно.
Вот тут видна разница С и БЕЗ физикса. Как по мне - весьма ощутимая.
Последний раз редактировалось DevelopeR; 14.08.2013 в 08:39.
Приходили сектанты, говорили что-то о добрых делах. Предложил им вынести мусор - обиделись и ушли...
В подобного рода играх Физикс именно для эффектов и используется. Был кто-то, кто по физиксу расчитывал траекторию полета дроби из дробовика (кажется, Кризис или ФарКрай), но это как-бы немного ставит в разные условия людей с физиксом и без онного, что в сетевых баталиях может быть критично.
Приходили сектанты, говорили что-то о добрых делах. Предложил им вынести мусор - обиделись и ушли...
Не являюсь ярым фанатом радеонов, по большей части из-за глюкавых каталистов, но например в моем медиа-центре за смешные деньги крутится проц АМД с встроенным радеоном, и декодинг ФуллХД кино идет на отлично, вместе с ХалфЛайфом (вторым) на максимальных настройках. Так право на существование имеют что те, что те.![]()
Приходили сектанты, говорили что-то о добрых делах. Предложил им вынести мусор - обиделись и ушли...
Всем привет!
Если есть тут сведущие в железе люди, дайте пожалуйста ответ, на вот такой вопрос:
У меня довольно старенький комп
ASUS M2N-MX
AMD Athlon 64 X2 5200+ (2.6GHz)
Western Digital Caviar Green 1.5TB 64МB WD15EARS
DVDROM - отключен
2 палочки по 1012 DDR2 RAM
БП 350 Ватт
ИБП 300 Ватт
GeForce 8600 GT 250MB недавно скончался.
Хочу поставить новую карточку. Как вы можете видеть, у меня всего 300 ватт от ИБП, поэтому, я начал искать экономную карточку. Мой выбор пал на GeForce 650 GTX - E. Она позиционируется как энергосберегающая(60-65 ватт на пике, что близко к моей старой карточке 55 на пике(если верить тестерам из интернета)).
Пришел я в магазин\ремонт компьютеров, рассказал о своем положении и о том, что не хотелось бы оставаться без ИБП(очень плохая ситуация с качеством энергоснабжения в доме). На что он мне ответил, что придется менять БП(читайте между строк, что ИБП - пускается побоку, это по умолчанию). Что на карточку нужно кидать дополнительное питание, так как мать его не потянет и пр., и пр.
Прихожу домой , гуглю (снова) эту карточку.читаю: -"Питание производится полностью через PCIe слот."
То ли я дурак(на самом деле, я в железе профан), то ли он мне пытается навязать БП, даже ценой потери покупателя на видеокарту. То ли он не очень понимает, о чем говорит.
Мало того, если эта карта всего на 6-10 ватт больше потребляет, зачем ей дополнительное питание?
Ничего не понимаю.
Суть вопроса:
Есть ИБП 300w, есть вышеупомянутая система, станет ли туда карточка GeForce 650 GTX - E?
Я понимаю, что старая система не даст ей полностью раскрыться, но меня волнует только один вопрос, хватит ли системе имеющихся мощностей?
П.С.
Не предлагать купить новые БП и ИБП, я сейчас "на бобах", могу расщедриться только на чуть более 100 баксов.
Надеюсь, что не очень сумбурно изложил.
До этого он мне еще сказал, что монитор, воткнутый в ИБП, не отжирает его мощностей, я в замешательстве, он что, пардон, "Святым Духом" питается? О_о
http://www.xard.ru/post/23429/
Последний раз редактировалось SAINT SINNER; 15.08.2013 в 14:04.
Украина превыше всего!
http://www.hwcompare.com/13602/geforce-8600-gt-256mb-gddr3-vs-geforce-gtx-650/
У меня 7770 стоит с прошлого года на 350БП FSP
Конфа: Феном х4 9650, 4 винта 2 привода(проц работает на +300GHz)
До этого на том же бп стояла 9800GT и Атлон х2 4800+ с теми же винтами и приводами(гнал +500GHz)
Тоже не хотел менять бп и за ним упс
Камень был TDP 65W а стал 95W
Тут вёс будет зависит от здоровья твоего БП
Разница эт +20Вт в пике (судя по ссылке)
Последний раз редактировалось LEXX_odessa; 15.08.2013 в 14:22.
Спасибо за отзыв!
Короче говоря, я могу просто взять этот GTX и воткнуть в слот, никакого доп. питания не нужно?
На схеме так написано:
PCIEX 16
PCIEX 1_1
PCI1
PCI2
Я так и не понял, может ли мать выдать необходимые ватт(ы), нужно ли ей это доп. питание.
ИБП, со своими 300, должен потянуть, скорее всего.
У меня старый монитор, могу его отрубить от ИБП, если что.
П.С.
Не совсем понял, что за "камень", и почему он стал просить больше каши?
7770, это Радеон, насколько я понимаю? Вроде тоже из энергосберегающих?
Такое в инете прочел:
Вопрос:
"Если у меня материнка c PCI-E x16 слотом, могу ли я в неё поставить видюху PCI -E 2.0? Будет она работать?"
Ответ:
"Да, она будет работать, однозначно. Версии интерфейса PCI-E имеют обратную совместимость. На Вашей материнке PCI-E 1.0 (или 1.1), большинство видеокарт (относительно новых) имеют ревизию 2.0, но они все совместимы. Версии PCI-E отличаются пропускной способностью и подаваемым на карточку напряжением. Так что если Вы ставите карточку 2.0 на материнку с портом 1.1, то скорость передаче данных будет на уровне спецификации 1.1 (этого вполне достаточно для большинства карточек, кроме, разве что, самых крутых), и не забудьте побеспокоиться о питании - на блоке питания должны быть разъемы для дополнительного питания видеокарты."
Сколько же на этот PCIEX 16 поступает энергии(максимум)? Может для этого GTX и не нужно доп питание?
Последний раз редактировалось SAINT SINNER; 15.08.2013 в 14:47.
Украина превыше всего!
Социальные закладки