vertiico  Dołączył: 08 Maj 2007
mialo juz byc jakis czas temu, pozniej bylo pazdziernik/listopad teraz jest listopad/grudzien a kiedy bedzie to ja nie wiem :mrgreen:
 

aflinta  Dołączył: 01 Lip 2007
vertiico, jak byłem rok temu we wrześniu w Dreźnie w fabryce AMD na prezentacji Barcelony, jej możliwości itp, itd. to mówili, że wprowadzą ją za 3 miesiące, ale się nie udało i zrobili to dopiero po 9 miesiącach - małe pół roku obsuwy :)
 

Misiek  Dołączył: 05 Lip 2007
aflinta, jak to zrobiłeś, że tam byłeś :?: Można tak normalnie zwiedzać :?:
 

aflinta  Dołączył: 01 Lip 2007
Misiek, nie wiem jak ze zwiedzaniem dla osób postronnych, ja tam pojechałem w ramach swojej pracy na zwykłe szkolenie. Intel też takie organizuje, choć do fabryki jeszcze nie zaprosił, a mógłby - w końcu jest jedna w Irlandii :) Zresztą takie fabryki wyglądają tak samo - niezależnie od producenta. No i nigdzie zdjęć nie można robić.
 

vertiico  Dołączył: 08 Maj 2007
kolega po fabryce buszowal i nie przywiozl zadnych "pamiatek" :evilsmile:
 

aflinta  Dołączył: 01 Lip 2007
vertiico, no kilka mam :) Brelok z zatopioną w środku strukturą CPU, fotkę z przed fabryki i fotkę z samego wejścia przy bolidzie F1 Schumachera :mrgreen:
 

zorzyk  Dołączył: 21 Kwi 2006
aflinta, vertiico chodziło o "pamiątki" nazywane tu i ówdzie memorkami ;-)
 

aflinta  Dołączył: 01 Lip 2007
zorzyk, takową też dostałem 1GB, ale teraz to już chyba norma na większości szkoleń, dają razem z materiałami zamiast nieporęcznych i zawodnych płyt CD :)
 
jpserwis  Dołączył: 12 Wrz 2006
Myślę, że niedługo do ACR-a i 22MPix Rawów będziemy potrzebować dobrej karty graficznej niż wielowątkowego CPU. Taki DirectX 10.x i np. CUDA - Nvidia, będą sobie świetnie radzić z zaawansowanym filtrowaniem, transformacją i kompresją wielkich plików graficznych wykorzystując swoje 256 potoków 256-cio bitowych pracujących na lokalnej pamięci DDR6.
Tak sobie myślę, bo ta branża rozwija się dużo szybciej niż CPU.
Swoją drogą chciałem przetestować taki GPUViewer ale mi wywala błąd.

[ Dodano: 2007-11-01, 20:18 ]
Acha Sempron był na socketA - sam taki mam.
 

alkos  Dołączył: 18 Kwi 2006
jpserwis napisał/a:
CUDA - Nvidia


cuda-nvidy?
 
jpserwis  Dołączył: 12 Wrz 2006
Np: http://gry.gery.pl/newsy/4025.html
Nas interesuje głównie zastosowanie tego do obróbki zdjęć. Wystarczy, że aplikacja podzieli obraz na ilość dostępnych procesorów. Myślę, że to będzie przełom.
 
Markus  Dołączył: 21 Mar 2007
Następny program który wykorzystuje 2 lub więcej rdzeniowe procesory to GIMP w najnowszej wersji (2.4.1)
Aby korzystać ze zwiększonej szybkości należy wybrać Plik/Preferencje/Środowisko/Ilość wykorzystywanych procesorów i tu wpisać liczbę rdzeni..
 

vertiico  Dołączył: 08 Maj 2007
zapomnieli dodac, ze procek GPU mozna wykorzystac do lamania hasel, co trwa znacznie szybciej :)
a jak ktos jeszcze kupi 4 takie karty graf. to tylko wlamywac sie do takiego kompa :evilsmile:
 

guerilla  Dołączył: 23 Kwi 2006
jpserwis napisał/a:

Nas interesuje głównie zastosowanie tego do obróbki zdjęć. Wystarczy, że aplikacja podzieli obraz na ilość dostępnych procesorów. Myślę, że to będzie przełom.


A.Dragan będzie wrzucał jedno zdjęcie, a po 3 sekundach dostanie 12 zdjęć różnych ludzi wraz z pięknym hdrowym krajobrazem :_) cuda niewidy!
 
LDevil  Dołączył: 30 Maj 2007
Mam taką małą prośbę - czy ktoś posiadający jakiegoś C2Quad i LR2 mógłby sprawdzić wykorzystanie poszczególnych rdzeni podczas używania tego programu?
Najbardziej interesuje, czy podczas pracy z programem (generowanie podglądu zdjęcia, bawienie się suwakami, itp) program potrafi sprytnie wykorzystać wszystkie rdzenie.
 

Mariusz.R  Dołączył: 09 Lis 2008
LR2 nie mam,ale pomęczyłem PPL.Jeden z dwóch rdzeni pracował znacznie intensywniej od drugiego(na podstawie wykresu z menedżera zadań)Skoki wykorzystania procesora max.45%
 
cerfes  Dołączył: 03 Kwi 2008
myślę, że koniecznie trzeba mieć jak najwięcej rdzeni. np. 2 procesory po 4 rdzenie (co najmniej). To da bardzo krótki czas wywoływania rawów i zamiast wybrać jedno najlepsze zdjęcie i się nim zająć będzie można w kilka chwil wywołać 16 kiepskich. nie ma to jak postęp.

może tutaj też ogólnie zadziała zasada, że im lepszy sprzęt tym lepsze fotki - skoro (jak wszyscy powszechnie wiedzą!) kupienie nowego aparatu i droższego obiektywu dodatnio wpływa na jakość zdjęć, to więcej rdzeni też będzie poprawiać nasze zdjęcia. zawodowi fotografowie na pewno mają super foty bo mają wypaśne komputery! ot, sekret
 
LDevil  Dołączył: 30 Maj 2007
Szybszy procesor powoduje, że obróbka zdjęcia przebiega o wiele przyjemniej (przynajmniej dla mnie) niż na wolniejszym procesorze. Może to się wydawać dziwne, ale te głupie kilka sekund oczekiwania na zdekodowanie zdjęcia potrafi zepsuć całą przyjemność obróbki.

Z tego a nie innego powodu pytam się jak jest z wykorzystaniem 4 rdzeni w LR2, bo nie wiem czy warto kupić C2Quad, czy też lepiej C2D wyżej taktowanego.

Nie mam pojęcia skąd się biorą te wszelkie przypuszczenia o wpływie rdzeni na jakość zdjęć.

[ Dodano: 2009-01-20, 17:48 ]
Mariusz.R, Ty masz C2D czy C2Q? Pomęczyłem PPL na C2D i zarówno lupka jak i poruszanie suwakami powoduje 100% obciążenie obu rdzeni. PPL w wersji 3.61
 

Mariusz.R  Dołączył: 09 Lis 2008
2x2.60GHz Athlon pod kontrolą Windows Vista
 

zorzyk  Dołączył: 21 Kwi 2006
LDevil napisał/a:
te głupie kilka sekund oczekiwania na zdekodowanie zdjęcia potrafi zepsuć całą przyjemność obróbki.
Święta prawda :-)
LDevil napisał/a:
nie wiem czy warto kupić C2Quad, czy też lepiej C2D wyżej taktowanego

Prawdopodobnie wyżej taktowany C2D zrobi coś tam szybciej, ale Quad obsłuży więcej procesów rówlegle - 2 razy więcej niż C2D :-) Odkąd mam Quada, nie chcę innego, ha :-) Z drugiej strony podkręcenie Quada do 3 GHz nie powinno być problemem na odpowiedniej płycie głównej (w każdym razie Q6600@3GHz, DDR2@835MHz na Abit IP35 fruwa aż miło -a folding@home w tle :mrgreen: ).

Wyświetl posty z ostatnich:
Skocz do:
Nie możesz pisać nowych tematów
Nie możesz odpowiadać w tematach
Nie możesz zmieniać swoich postów
Nie możesz usuwać swoich postów
Nie możesz głosować w ankietach