• golli
    link
    fedilink
    Deutsch
    arrow-up
    1
    ·
    3 months ago

    Meine Einschätzung als interessierter Laie:

    TLDR: Theoretisch ja, praktisch nein: Rechenleistung wird immer mehr in fast allen Wirtschaftsbereichen benötigt. Für Unternehmen im internationalen Wettbewerb wäre diese Lösung nicht praktikabel. Ind woher sollen die Massen anderer Chips kommen falls der Zugang zu leeding-edge chips wegfällt?


    Prinzipiell ist es korrekt, dass auch Prozessoren die auf älteren Fertigungsprozessen beruhen dieselben Berechnungen durchführen könnten nur ineffizienter. Und mit mehr Chips könnte man das ganze beschleunigen.

    Die Frage ist allerdings wie realistisch diese Alternative ist, vor allem im Kontext wirtschaftlicher Wettbewerbsfähigkeit. Mehr Prozessoren (für die gleiche Leistung) bedeuten ja auch nicht nur das mehr Chips benötigt werden, sondern auch mehr Energieverbrauch, mehr Server hardware, Kühlung, Gebäude und so weiter. Das macht Kostenmäßig massive Unterschiede und die Technik entwickelt sich extrem schnell weiter (siehe Moor’s Law).

    Rechenleistung wird heutzutage überall in immer weiter wachsendem Maße benötigt. Nicht nur für den aktuellen Hype mit AI und Large Language Models wie ChatGPT, sondern in praktisch allen Wirtschaftsbereichen. Zum Beispiel in der Pharmaindustrie (siehe projekte wie Alphafold), überall in der Industrie wo du etwas simulieren musst wie Aerodynamik oder Materialeigenschaften und letztlich überall wo Daten anfallen und man Trends erkennen und optimieren will. Unternehmen die im internationalen Wettbewerb stehen und nur Zugang zu langsameren Chips hätten, würden es extrem schwer haben konkurenzfähig zu bleiben.

    Das ist also gesamwirtschaftlich relevant und im Vergleich zur Solarindustrie gibt es hier auch eine erheblich größere Lieferkette, anderweitig verflochtene Unternehmen, gutbezahlte Jobs und Know-How, welche man durch den Bau einer Fab versuchen kann anzusiedeln.

    Davon abgesehen stellt sich natürlich auch die simple Frage: Wenn wir aus irgendeinem grund keine leeding-edge Chips bekommen, woher sollen dann plötzlich die Massen an anderen Chips kommen?


    Um den status quo der Chipherstellung ein bisschen zu beleuchten:

    Es gibt Chips die auf älteren, größeren Prozessen basieren, welche vor allem im industriellen Rahmen (z.B. der Autoindustrie) Anwendung finden. Dort kommt es primär auf Kosten und Zuverlässigkeit an, weniger auf Rechenleistung oder Effizienz. In diesem Bereich gibt es mehr unterschiedliche Hersteller. Wie ein Angebotsschock hier aussieht haben wir z.B. durch Corona erlebt, wodurch die Montagebänder aufgrund von Chip-Mangel teilweise still standen und Preise massiv nach oben gingen. Aus diesem Grund wird TSMC in Kooperation mit Bosch und Infenion wahrscheinlich auch subventioniert eine Fab (glaube für 28nm) hier in Deutschland bauen.

    Was die Herstellung moderner Chips (damit meine ich nicht nur die absolute leeding edge, sondern auch was ein paar generationen älter ist wie z.B. 10nm) angeht haben wir in Europa glaube ich nur Intel Fabs in Irland. Ansonsten ist die meiste Kapazität in Taiwan, gefolgt von den USA, Korea, China und Israel (intel).

    Man würde heutzutage wohl eher keine “mittleren” 7nm oder 10nm Fabriken neu bauen, weil es nicht wirtschaftlich wäre. Zu schlecht für high end Chips und zu teuer für simplere Anwendugen. Vor allem weil ja existierende Kapazitäten frei werden, sobald das nächst bessere bereit ist. Wenn man neu baut ist es also entweder leeding edge oder das was TSMC baut für die Industrie, nicht was dazwischen liegt.

    Wobei eine Fabrik nicht konstant geupgraded wird, also nicht permanent an der absoluten leeding edge bleibt. Sobald eine Fab am start ist läuft das erstmal auf dem festgelegten Fertigungsprozess (mit vllt kleinen updates) weiter. Bis sie irgendwann zu alt ist und es wirtschaftlicher ist zu upgraden (weil ein komplett neuer Standort noch teurer wäre als der Kapazitätsverlust durch den Austausch der existierenden Geräte).

    Wir subventionieren also garnicht unbedingt speziell nur den Bau einer absoluten leeding edge Fabrik, sondern generell Kapazitäten für moderne Chips und das Know-How diese unabhängig Produzieren zu können. Und diese Notfalls dann auch ausbauen zu können und nicht von 0 zu starten zu müssen wenn es zuspät ist.

    Man muss aber vielleicht noch erwähnen, dass wir in Europa mit Unternehmen wie ASML oder Zeiss absolut einzigartige und unersätzliche Unternehmen in der Semiconductor Lieferkette besitzen. Da stehen wir also nicht komplett nackt dar. Wir haben es halt nur leider Versäumt mit der Chip-Herstellung und damit Verbundenen Wertschöpfung am Ball zu bleiben.


    Um ein den geopolitischen Hintergrund ein bisschen zu beleuchten:

    Globale Krisen wie Corona, aber auch der potentielle Krieg zwischen Taiwan (wo ein Großteil der weltweiten Chip industrie angesiedelt ist) haben zu einem deglobaliserungs Denken weltweit geführt. Der Ausfall von Taiwans Chipindustrie z.B. würde jegliche bisherige Krise lächerlich aussehen lassen.

    Ganz konkret z.B. hat die USA auch schon Ausfuhrverbote nach China für high end GPUs von Nvidia und Maschienen zur Chip Herstellung von ASML verhängt. Unter anderem deswegen versucht China schon relativ lange in diesem Bereich unabhängiger zu werden. Aber auch die USA subventionieren den Bau neuer Fabriken massive mit dem CHIPS Act und Japan versucht mit Rapidus leeding edge Fähigkeiten aufzubauen. Es folgen also nicht nur Deutschland/Europa sondern alle die es sich Leisten können diesem Trend.

    Für Taiwan ist die Chipindustrie praktisch ihr bestes Schutzschild gegen China, da es die Unterstützung des Westens garantiert.

    • gandalf_der_12te@feddit.de
      link
      fedilink
      Deutsch
      arrow-up
      1
      ·
      3 months ago

      Globale Krisen wie Corona, aber auch der potentielle Krieg zwischen Taiwan (wo ein Großteil der weltweiten Chip industrie angesiedelt ist) haben zu einem deglobaliserungs Denken weltweit geführt. Der Ausfall von Taiwans Chipindustrie z.B. würde jegliche bisherige Krise lächerlich aussehen lassen.

      Noch ein guter Punkt. Ich denke, man könnte den Unsicherheiten in der Lieferkette zum einen natürlich durch den Aufbau eigener Kapazitäten, zum anderen auch durch hoarding (also Lager befüllen) begegnen. So wie wir es derzeit mit den billigen chinesischen Solarzellen machen.

      • golli
        link
        fedilink
        Deutsch
        arrow-up
        1
        ·
        edit-2
        3 months ago

        Danke für den Link über Solarzellen, definitiv interssant zu lesen.


        Zur Alternative hoarding:

        In einigen Bereichen mag das bis zu einem gewissen Grad gehen. Unter anderem für Waffensysteme (z.B. was für chips auch immer Taurus nutzt), Banken mit ihren Mainframes, kritische Infrastruktur wie Kraftwerke oder medizinische Geräte. Was diese aber alle gemein haben ist, dass es a) nicht primär auf rechenleistung ankommt, b) lange update cycles haben oder praktisch nie geändert werden sobald zertifiziert und c) nicht nicht in extremen Massen benötigt werden, sondern in relativ gut definiertem, bekannten Unfang.

        Für den allgemeinen Bedarf an Rechenleistung und die Wirtschaft wird das so nicht funktionieren. Angefangen mit der Frage, was man denn lagern würde. “Chips” ist nicht nur ein Produkt sondern ein sehr weites Feld, da gibt es CPUs, GPUs, FPGAs oder auch hoch spezialisierte Produkte wie z.B. Cerebras wafer-scale engine.

        Hier war ich unpräzise war in meinem letzten Kommentar, dass man es richtig ist, dass man einfach mehr Chips statt modernerer nutzen könnte. CPUs als eine Art “jack of all trades, master of none” könnnten das (wobei es auch hier je nach anwendung Software translation layers bräuchte bzw legacy software umgeschrieben werden müsste), aber lägen in bestimmten Anwendugen soweit hinter spezialisierten Produkten zurück, dass sie kein praktiabler Ersatz wären. Wir müssten also Raten welche Chips in welchem Verhältnis relevant wären (und eventuell gäbe es neue, derzeit nicht existierende Lösungen). Im Falle des derzeitigen AI-Hypes z.B. wird in Zukunft mehr Leistung für Training oder Interference benötigt? Jenachdem wären unterschiedliche Chips wichtiger.

        Die nächste Frage ist auch für welchen Zeitpunkt und welche “qualität” von Chips man denn einlagert. Der worst case wäre ja z.B. der Ausfall Taiwans durch Invasion Chinas. Aber wann? 2027, -30, -35? Und unabhängig von der Menge, die eingelagert würden: Man würde ja kaum die neuesten Chips kaufen, da viel zu teuer und verschwendung sie einzulagern, statt direkt zu nutzen wo es eh derzeit einen Mangel besonders bei GPUs gibt. Sondern ältere Chips (“schlechtere qualität”), die aber mit jedem Jahr weniger relevant werden. In gewisser weise (zumindest im hinblick auf die Rechenleistung relativ zu leeding edge produkten) also ein verderbliches Produkt sind, dass immer unrelevanter würde. Oder permanent teure Nachkäufe benötigen würde.

        Wirtschaftlich also totale Geldverschwendung und sicher nicht günstiger als die Subvention einer neuen Fabrik, selbst wenn das 10mrd € sind. wobei man sich ja hier ja einen gewissen grad an ROI (return on investment) verspricht.


        Davon abgesehen kann man garnicht soviel Einlagern wie die Wirtschaft bräuchte. Die US-Giganten sind vllt nicht vergleichbar mit unseren mickrigen Unternehmen, aber als Referenz Meta kauft mal eben für 10Mrd Nvidia GPUS quelle. Um einer Krise gegenzusteuern bei der längerfristig ein Angebotsverlust besteht (anders als die temporäre Corona Krise) würden gelagerte Chips selbst im besten Fall nur sehr kurzfristig helfen. Und dann müsste man wiederum eh Anfangen Kapazitäten aufzubauen. Was aber leider wiegesagt Jahre oder sogar Jahrzente dauern kann wenn man von nahe Null anfangen muss (anstatt existierende auszubauen und mit ausgebildeten Fachkräften).

    • gandalf_der_12te@feddit.de
      link
      fedilink
      Deutsch
      arrow-up
      1
      ·
      edit-2
      3 months ago

      Mehr Prozessoren (für die gleiche Leistung) bedeuten ja auch nicht nur das mehr Chips benötigt werden, sondern auch mehr Energieverbrauch, mehr Server hardware, Kühlung, Gebäude und so weiter. Das macht Kostenmäßig massive Unterschiede und die Technik entwickelt sich extrem schnell weiter (siehe Moor’s Law).

      Also ich habe gerade nachgeschaut, und der Stromverbrauch würde beim Umstieg auf ARM z.B. nicht steigen, sondern eher sogar sinken. (siehe z.B. hier.

      Man würde heutzutage wohl eher keine “mittleren” 7nm oder 10nm Fabriken neu bauen, weil es nicht wirtschaftlich wäre. Zu schlecht für high end Chips und zu teuer für simplere Anwendugen. Vor allem weil ja existierende Kapazitäten frei werden, sobald das nächst bessere bereit ist. Wenn man neu baut ist es also entweder leeding edge oder das was TSMC baut für die Industrie, nicht was dazwischen liegt.

      Da stimme ich dir übrigens zu, das ist schön formuliert.

      • golli
        link
        fedilink
        Deutsch
        arrow-up
        1
        ·
        3 months ago

        Also ich habe gerade nachgeschaut, und der Stromverbrauch würde beim Umstieg auf ARM z.B. nicht steigen, sondern eher sogar sinken. (siehe z.B. hier.

        Das Instruction set hat nichts mit dem Fertigungsprozess zu tun und ist deswegen komplett unabhängig von diesem Problem.

        ARM vs x84_64 oder RISC-V es gibt immer eine Abwägung zwischen Effizienz, maximaler Leistung und Kompatibilität mit alter Software. In der Praxis sind die meisten ARM Produkte definitiv mehr auf Effizienz getrimmt und x84_64 hat besonders Kompatibilität als Merkmal. Und dieser Punkt ist sehr relevant, sonst hätte es den von dir überlegten Umstieg schon längst gegeben und wir hätten keine x84_64 prozessoren mehr. Niemand will existierende Software umschreiben müssen, falls er es vermeiden kann. Translation layers die Kompatibilität schaffen könnten sind komplex und würden wohl jeden Vorteil vernichten.

        Und wie im anderen Post erwähnt würde das ja z.B. nur für CPUs gelten, aber nicht den Rest (wo im moment besonders GPUs relevant sind).