Schlagzeilen machen die Runde, dass OpenAI, die Firma hinter ChatGPT, schon nächstes Jahr Konkurs gehen könnte. Ein Versuch einer Analyse.
FirstPost publizierte am Wochenende unter dem Titel «ChatGPT In Trouble: OpenAI may go bankrupt by 2024, AI bot costs company $700,000 every day» einen Artikel, dass
- die Nutzerzahlen sinken würden,
- Open-Source-Modelle als Alternativen beliebter würden,
- die Einnahmen hinter den Erwartungen zurückblieben,
- dafür die Ausgaben horrend seien,
- die für die Berechnungen nötigen GPUs weiterhin Mangelware seien und
- Spitzenleute von anderen Firmen abgeworben würden.
Finanzenquellen
Bei der Gründung 2015 wurde OpenAI mit über einer Milliarde USD an Kapital ausgestattet, welches Microsoft 2019 und 2021 um jeweils eine weitere Million erhöhte. Aus diesen 3+ Milliarden wurden anfänglich Löhne und die übrigen Kosten bezahlt.
Anfang diesen Jahres schoss Microsoft weitere 10 Milliarden USD ein. Und trotz dieser massiven Finanzspritze soll das Geld nur noch etwa ein Jahr reichen? Unwahrscheinlich.
Ausgaben
Nehmen wir an, dass der Betrieb von ChatGPT 700’000$ am Tag koste; das ergibt im Jahr rund 250 Millionen USD.
Nehmen wir auch an, dass OpenAI inzwischen von 375 Mitarbeiteitenden auf 2000 angewachsen sei. Und dass alles hochbezahlte KI-Entwickler mit einem Jahresgehalt von 1 Million seien. Das würde im Jahr 2 Milliarden USD kosten; eine definitiv übertrieben hohe Schätzung (mein Bauchgefühl liegt für dieses Jahr näher bei 500 Millionen USD).
Nehmen wir weiterhin an, dass die übrigen Kosten (Rechenleistung für die anderen Projekte wie z.B. DALL•E 2, Marketingausgaben, …) ebenfalls nochmals 250 Millionen USD kosten.
Damit lägen die Jahresausgaben bei 2.5 Milliarden USD, was eine riesige Zahl ist, aber nur einen Viertel des Kapitaleinschusses dieses Jahr ausmacht.
Falls OpenAI nicht ohne weitere Einnahmen massiv wächst, wäre das Geld erst in 4-10 Jahren aufgebraucht.
Aber…‽
Falls das Geld aber doch ausgehen würde, so gehen die Mutmassungen, würde möglicherweise Microsoft weiter Geld einschiessen. Microsoft hat grosse Pläne mit KI und will die überall einbringen, natürlich auf Basis ihrer Azure Cloud. Dabei spielt zumindest bisher OpenAI eine zentrale Rolle.
Es ist unwahrscheinlich, dass Microsoft zum aktuellen Zeitpunkt diese zentrale Rolle auszutauschen würde. Das Risiko, in diesem Rennen zurückzufallen, wäre wahrscheinlich zu gross.
Resumé
Selbstbewusste grosse Schlagzeile für die Saure-Gurken-Zeit. Es wird auf allen Kanälen gnadenlos repliziert, aber es scheinen kaum belastbare Fakten zu existieren.
Künstliche Intelligenz
- Was verraten KI-Chatbots?«Täderlät» die KI? Vor ein paar Wochen fragte mich jemand besorgt, ob man denn gar nichts in Chatbot-Fenster eingeben könne, was man nicht auch öffentlich teilen würde. Während der Erklärung fiel mir auf, dass ganz viele Leute ganz wenig Ahnung haben, wie die Datenflüsse bei KI-Chatbots wie ChatGPT etc. eigentlich ablaufen. Deshalb habe ich für… Was verraten KI-Chatbots? weiterlesen
- KI-DatenkreisläufeHier ein kleiner Überblick über die Datenkreisläufe rund um generative KI, insbesondere grosse Sprachmodelle (Large Language Model, LLM) wie ChatGPT, Gemini oder Claude.
- Der Homo Ludens muss Werkzeuge spielend erfahren. Auch KIFast alle Werkzeuge, die wir «spielend» beherrschen, haben wir spielend gelernt. Das sollten wir auch bei generativer KI.
- Der Turing-Test im Laufe der ZeitVor einem knappen Jahrhundert hat sich Alan Turing mit den Fundamenten der heutigen Informatik beschäftigt: Kryptographie, Komplexität/Rechenaufwand, aber auch, ob und wie wir erkennen könnten, ob Computer „intelligent“ seien. Dieses Imitationsspiel kennen wir heute als Turing-Test und ist aktuell wieder in aller Munde, weil gerade behauptet wird, dass Computer inzwischen intelligenter seien als Menschen. Er… Der Turing-Test im Laufe der Zeit weiterlesen
- «QualityLand» sagt die Gegenwart voraus und erklärt sieIch habe vor Kurzem das Buch «QualityLand» von Marc-Uwe Kling von 2017 in meinem Büchergestell gefunden. Und war erstaunt, wie akkurat es die Gegenwart erklärt. Eine Leseempfehlung.
- Kritik an KI ist nötig. Aber wie?KI ist seit 1½ Jahren in aller Munde. Die Meinungen gehen von Woher kommt diese Uneinigkeit? Daran, dass die Kritik an der KI faul geworden sei und nur noch wiederkäue, meint Danilo Campos in einem Essay, das er Ende letzten Jahres geschrieben hat. Darin versucht er die Kritik an der KI zu strukturieren und zu… Kritik an KI ist nötig. Aber wie? weiterlesen
- Neuralink ist (noch) keine Schlagzeile wertDiese Woche haben einige kurze Tweets von Elon Musk hunderte oder gar tausende von Artikeln ausgelöst. Wieso?
- Die düsteren Datenhintergründe der KIGenerative Sprachmodelle wie beispielsweise ChatGPT erwecken den Eindruck, Neues zu erzeugen. Dabei kombinieren sie nur Muster neu. Wobei: Diese Kombinationen sind nicht immer wirklich neu. Mit ein bisschen Geschick kann man die Sprachmodelle dazu bringen, viel über ihre ansonsten geheimen Trainingsdaten auszuplappern. Diese Einblicke in die dunklen Hintergründe dieser Daten werden unseren Umgang mit Privatsphäre,… Die düsteren Datenhintergründe der KI weiterlesen
- «Quasselquote» bei LLM-SprachmodellenNeulich erwähnte jemand, dass man ChatGPT-Output bei Schülern häufig an der «Quasselquote» erkennen könne. Das ist eine Nebenwirkung der Funktionsweise dieser Sprachmodelle, aber natürlich noch kein Beweis. Etwas Hintergrund.
- «KI» und «Vertrauen»: Passt das zusammen?Vor einigen Wochen hat Bruce Schneier einen Vortrag gehalten, bei dem er vor der der Vermischung und Fehlinterpretation des Begriffs «Vertrauen» gewarnt hat, ganz besonders beim Umgang mit dem, was heute von Firmen als «Künstliche Intelligenz» verkauft wird.
- Wegweiser für generative KI-ToolsEs gibt inzwischen eine grosse Anzahl generativer KI-Tools, nicht nur für den Unterricht. Hier ein Überblick über verschiedene Tool-Sammlungen.
- KI-VergiftungEine aggressive Alternative zur Blockade von KI-Crawlern ist das «Vergiften» der dahinterliegenden KI-Modelle. Was bedeutet das?
Schreibe einen Kommentar