nVidia zamierza porzucić obsługę 32 bitowego Linuksa w CUDA

nVidia zamierza porzucić obsługę 32 bitowego Linuksa w CUDA

    przez -
    11 217
    nVidia
    Daniel Dadap z nVidia poinformował o kilku planach firmy, związanych z pakietem CUDA. Pierwszym z nich jest porzucenie rozwoju 32 bitowej wersji dla Linux x86, w tym zakończenie oferowania nowych funkcji dla 32 bitowych aplikacji. Oczywiście powyższe nie dotyczy 32 bitowego sterownika CUDA, który będzie nadal wspierany w obu wersjach sterownika graficznego nVidia Linux Display Driver 331.xx. nVidia zamierza także przestać oferować sterowniki CUDA w pakiecie sterowników graficznych.

    Wszystkie powyższe informacje nie dotyczą architektury ARM, która nadal będzie w pełni wspierana.

    • buba

      jestem ciekaw ile jeszcze lat potrzeba będzie by całkowicie ludzie zaprzestali korzystania z systemów 32 bitowych oczywiscie na x86, wdrażanie 64 bitów trwa już dobre kilka lat ale 32 bity chyba nadal wiodą prym

      • pijaczek

        Ja 32bit porzuciłem w 2006 (już wtedy ciężko było o nowy 32bitowy procesor, a i większość dystrybucji miala wersje x86_64 – o ile pod Windowsem wybór XP 64bt był niewskazany, to pod Linuksem 64bit się szybko zadomowiło i już w 2006 trzymanie się 32bit nie miało żadnego sensu). Pierwsze urządzenia obslugujące CUDA to koniec 2006, a na rynek masowy 2007, a i tak tych urządzeń nikt już do CUDA nie wykorzystuje, więc akurat pod Linuksem ilość systemów 32bit z kartą obsługującą CUDA jest zapewne tak marginalna, że decyzja nie dziwi (pod Windowsem to inna bajka, bo to dalej spory %, ale pod Linuksem 32bit umarło dawno (jest jeszcze na starych komputerach, ale te nie mają też GPU z arch CUDA)).

      • piomek

        "(…) więc akurat pod Linuksem ilość systemów 32bit z kartą obsługującą CUDA jest zapewne tak marginalna"
        Jestem marginesem :(

      • pijaczek

        Ładniej brzmi "jestem wyjątkowy" ;p

      • Nie znasz jakiegoś serwisu, który dobrze relacjonuje APU13?
        We wtorek miało być szkolenie o Mantle, ale nikt się nie chwali.

      • pijaczek

        Nie, ale slajdy masz tu: http://www.geeks3d.com/20131113/amd-mantle-first-

        Ogólnie nie rządzi – celem Mantle jest osiągnięcie 100 tysięcy drawcalli na sekundę… większe cele ma programista sterowników OpenGL w AMD http://www.openglsuperbible.com/2013/10/16/the-ro… a i więcej niż milion można osiągać na Nvidii.
        Ogólnie to jak oglądam te slajdy to tak jakbym gdzieś to już wcześniej widział:

        – Memory Managment… czyżby mówili o GL_ARB_buffer_storage z OpenGL 4.4, który pozwala zarządzać co gdzie i jak jest przechowywane w pamięci GPU i CPU (łącznie z przechowywaniem bufforów w pamięci CPU i mapowanie do bezpośredniego dostępu przez GPU – przydatne przy współdzielonej pamiędzi jak SoC/APU, ale i nowe GPU AMD mogą z tego korzystać).

        – Generalizacja zasobów… GL_ARB_shader_storage_buffer_object z OpenGL 4.3, które można używać do każdego rodzaju pamięci (a nawet możliwe, że mniej, bo może nie pozwalać na zmianę w shaderach zawartości bufforów).

        – Serializacja pipeline… czyżby GL_ARB_multi_bind z OpenGL 4.4 (serializacja wywołań wielu bindów i budowanie jednego set'a z nich).

        – Nowy model bindowania "najlepsze z paradygmatów tradycyjnego i bindless"… w tradycyjnym paradygmacie najlepsze jest jedynie to, że łatwo go wykonać od strony sprzętu, a bindless wymaga więcej zachodu tym bardziej jeśli weźmiemy pod uwagę tekstury. Zapewne pod tymi ładnymi słowami kryje się "dajemy wam możliwość taką jak Nvidia dała w Bindless Graphics w Fermi, ale jeszcze sprzęt nie potrafi więcej, więc na odpowiednik Bindless Textures trzeba jeszcze poczekać".

        Mało powiedzieć, że slajdy nie zaimponowały mi.

      • Dzięki.
        Slajdy chyba nie miały imponować. Czego się spodziewać po tym, że wywalili całą biurokrację bibliotek graficznych. Teraz wydajność leży w rękach programistów, którzy pewnie napiszą tą całą biurokracje od nowa ;-).

        Podobno pokazali tam też BF4 Demo na Mantle i wieść gminna niesie, że zrobili to na Linuksie.

      • pijaczek

        Mantle miało imponować… ale 100k drawcalli może jedynie zaimponować programistom DX, a przy nowoczesnym OpenGL jest to raczej żałośnie mało… myślałem, że przynajmniej zbliżą się do ilości DrawCalli możliwych w OpenGL bez bindlessów (bindlessów jasne było, że nie dogonią).
        Biurokrację to co najwyżej dodali (programiści teraz muszą się o więcej opisać, aby osiągnąć ten sam cel).
        Ogólnie z Mantle nie ma nic złego poza tym, że wychodzi o 3-4 lata za późno – dziś nowoczesny OpenGL pozwala na niższy poziom niż Mantle (po prostu w ostatnich wersjach OpenGL wszedł tak close to metal, że nie za bardzo można zejść bardziej, a rozszerzenia producentów schodzą jeszcze niżej) i pozwala programistom na lepsze rozwinięcie skrzydeł, przy zachowaniu dodatkowo stosunkowo łatwego wsparcia dla starszych kart.

        Nie słyszałem nawet takiej plotki. Jeśli taka jest to zapewne ktoś życzeniowo przetworzył pochwalne słowa Larsa Gustavssona z DICE na temat inicjatywy Valve ze Steam… tylko, że:
        1. Mówił o grach exclusive na Steam, że może się to udać.
        2. Mówimy o DICE czyli podfirmie EA, która się ze Steam bardzo nie lubi, a platforma EA Origin raczej na Linuksa prędko nie zagości.

      • Jakby jeszcze ktoś szukał to jest Video z prezentacji: http://www.youtube.com/watch?v=N_6CAneoW-0

    • atom

      wycinają cude ze sterowników? skończy się robienie botnetów do kopania bitcoinów. Jeszcze tylko ati wytnie stream i będzie pozamiatanie. Szkoda, że tak późno bo nadchodzi zmierzch ery kopania bitcoinów na GPU.