Стоит ли тратить $2000 на видеокарту, которая "съедает" 450 Вт электроэнергии? Первые тесты GeForce RTX 5090 показали, что эта монстроподобная GPU не только побеждает конкурентов, но и устанавливает новые стандарты скорости. Однако есть нюансы, которые стоит знать перед покупкой.
Производительность, заставляющая затаить дыхание
По данным Puget Systems, RTX 5090 в Adobe Premiere Pro обработала 8K-видео на 9% быстрее предшественника. В DaVinci Resolve Studio разница выросла до 17%, но тесты проводились на обновленной версии софта - официальный патч ожидают до апреля 2025.
Интересно, что в Blender карточка показала 38% прирост быстродействия по сравнению с RTX 4090. Для сравнения, по тестам Tom's Hardware, на рендеринге сцены BMW E30 в Cycles, 5090 завершила задачу за 14 секунд – на 5 секунд быстрее своего "старшего брата".
AMD VS Nvidia: битва за креативный рынок
Хотя RX 7900 XTX предлагает 24 ГБ GDDR6X памяти, в Adobe After Effects она отстает даже от RTX 2080 Ti. Проблема – поддержка технологий:
- OpenCL на AMD дает 45% просадку в скорости рендеринга по сравнению с CUDA;
- DLSS 4.0 в новой Nvidia улучшает FPS в AI-приложениях на 22%;
- Ray Tracing в Unreal Engine "ест" 65% производительности Radeon против 18% у GeForce.
Эксперты 3DNews отмечают: AMD фокусируется на игровом сегменте, тогда как Nvidia захватывает рынок видеомонтажа и AI.
Почему не все так идеально?
Первые покупатели сталкиваются с проблемами:
- Отсутствует поддержка Redshift и Octanebench;
- VRAM нагревается до 92°C под длительной нагрузкой (данные TechPowerUp);
- Для стабильной работы требуется блок питания от 1000 Вт.
Nvidia обещает исправить программные баги до конца марта. Параллельно компания анонсировала сервис RTX Studio Driver – специальные обновления для креативных приложений.
Выводы: для кого этот монстр?
RTX 5090 – чип-хамелеон. Он подходит для:
- Студий визуальных эффектов, где каждая минута рендеринга стоит денег;
- Исследователей AI, которые работают с нейросетями на локальных серверах;
- Энтузиастов, готовых платить за статус "самого быстрого".
Как отметил Линус Торвальдс в своем блоге: "Это не видеокарта – это квантовый скачок в будущее вычислений. Вопрос лишь в том, готовы ли вы за него заплатить".











