Suchergebnisse für "AWS"
2026-04-29
04:33

OpenAI-Modelle sollen schrittweise zu Amazons benutzerdefiniertem Trainium-Chip migrieren, sagt Altman — er sei "sehr gespannt" darauf

Gate-News-Mitteilung, 29. April — OpenAI-Modelle, die auf dem Amazon Web Services Bedrock laufen, werden schrittweise auf Trainium migrieren, Amazons eigens entwickelten KI-Chip, wie jüngste Aussagen von OpenAI-CEO Sam Altman und AWS-Führungskräften nahelegen. Aktuell arbeiten die Modelle in einer gemischten Umgebung, die sowohl GPUs als auch Trainium nutzt, wobei der Anteil mit der Zeit zunehmend auf Trainium übergeht. Altman sagte, das Unternehmen sei "bereit, Modelle auf Trainium zu verlagern." AWS-Manager Garman räumte ein, dass der Name Trainium möglicherweise irreführend gewesen sein könnte, da der Chip für sowohl Training als auch Inferenz ausgelegt ist, wobei Inferenz in Zukunft voraussichtlich der wichtigste Anwendungsfall sein wird. Garman betonte jedoch, dass das Chip-Branding für die meisten Kunden weitgehend irrelevant sei; Nutzer kämen mit OpenAI über die API-Schnittstelle in Kontakt, nicht direkt mit der zugrunde liegenden Hardware. Auf die Frage nach einer zukünftigen Integration von Nicht-OpenAI-Modellen in Bedrock Managed Agents ging Garman nicht ins Detail und erklärte lediglich, dass AWS derzeit auf seine Partnerschaft mit OpenAI fokussiert sei. Die Zusammenarbeit unterstreicht Amazons Strategie, seine eigene kundenspezifische Siliziumtechnologie zu nutzen, um große KI-Workloads auf seiner Cloud-Plattform zu unterstützen.
Mehr
04:29

Altman: Token-Based Pricing Becoming Obsolete as GPT-5.5 Shifts Focus to Task Completion Over Token Count

Gate News-Nachricht, 29. April — OpenAI-CEO Sam Altman sagte in einem Interview mit Ben Thompson auf Stratechery, dass tokenbasierte Preisgestaltung kein langfristig tragfähiges Modell für KI-Dienstleistungen ist. Unter Verwendung von GPT-5.5 als Beispiel merkte Altman an, dass zwar der Preis pro Token deutlich höher ist als bei GPT-5.4, das Modell jedoch für die gleiche Aufgabe viel weniger Tokens verwendet, was bedeutet, dass Kunden sich nicht für die Anzahl der Tokens interessieren — sondern nur dafür, ob die Aufgabe abgeschlossen wird und die Gesamtkosten. "Wir sind keine Token-Fabrik; wir sind eher eine Intelligenz-Fabrik", sagte Altman. "Kunden wollen die meiste Intelligenz für möglichst wenig Geld kaufen. Ob die zugrunde liegende Arbeit von einem großen Modell erledigt wird, das wenige Tokens ausführt, oder von einem kleinen Modell, das viele Tokens ausführt, ist für sie nicht relevant." Er fügte hinzu, dass die aktuelle Kundenbasis von OpenAI zunehmend mehr Kapazität fordert, anstatt über Preise zu verhandeln: Viel mehr Kunden sagen "gebt uns mehr Kapazität, egal was es kostet" als solche, die nach Rabatten fragen. Altman zog eine Parallele zu Versorgungsunternehmen und erklärte, dass sich die KI-Nachfrage anders skaliert als bei Wasser oder Strom — wo niedrigere Preise den Verbrauch nicht signifikant erhöhen. "Solange der Preis niedrig genug ist, werde ich weiter mehr verwenden. Keine andere öffentliche Versorgungsleistung funktioniert auf diese Weise", sagte er. AWS-CEO Matt Garman ergänzte, dass die Preise für Rechenleistung in den vergangenen 30 Jahren um mehrere Größenordnungen gefallen seien, während heute dennoch mehr Rechenleistung verkauft wird als jemals zuvor. Altman beschrieb außerdem ChatGPT als "das erste wirklich groß angelegte Konsumprodukt seit Facebook" und räumte ein, dass zwar erwartet wurde, dass KI die Suche stören würde, die eigentlichen Erfolge jedoch von ChatGPT selbst und der Codex-API kamen. Er merkte an, dass "Google in vielerlei Hinsicht noch immer unterschätzt wird."
Mehr
13:12

OpenAI und AWS veranstalten am 28. April ein Kundenevent

Gate News-Nachricht, 27. April — OpenAI- und Amazon Web Services (AWS)-Führungskräfte werden morgen, am 28. April, gemäß The Information eine Kundenveranstaltung ausrichten. OpenAI erklärte, dass es nun alle seine Produkte Kunden jedes Cloud-Serviceanbieters bereitstellen kann
Mehr
02:41

Meta setzt Millionen von AWS Graviton-Chips für KI-Workloads ein

Gate News Nachricht, 25. April — Amazon gab am 24. April bekannt, dass Meta Millionen von AWS Graviton-Chips für KI-Workloads einsetzen wird, was einen bedeutenden Kundenerfolg für die hausinternen ARM-basierten Prozessoren von AWS darstellt. Die Chips werden für KI-Inferenz und allgemeines Computing verwendet, anstatt
Mehr
12:10

Meta will in einem mehrjährigen Milliarden-Deal Zehntausende Millionen AWS-Graviton5-Chips einsetzen

Gate News Nachricht, 24. April — Meta hat eine mehrjährige Vereinbarung mit Amazon Web Services unterzeichnet, um für seine KI-Infrastruktur Zehntausende Millionen Graviton5-Prozessoren einzusetzen, wodurch Meta zu einem der größten Graviton-Kunden von AWS weltweit wird. Das Geschäft, das drei bis fünf Jahre umfasst, ist laut AWS-Vizepräsident Nafea Bshara Milliarden von Dollar wert.
Mehr
03:46

Vercel-CEO bestätigt: Malware wurde über den Context.ai-Verstoß hinaus verteilt und zielt auf Kontozugangsdaten

Vercel berichtet über eine umfassende Sicherheitsuntersuchung, die Aktivitäten von Angreifern zeigt, die über Context.ai hinausgehen. Dabei wird Malware verbreitet, um Anmeldedaten zu stehlen, Umgebungsvariablen offenzulegen und zu einer verstärkten Zusammenarbeit mit Microsoft, AWS und Wiz aufzurufen. Abstrakt: Vercel hat eine detaillierte Untersuchung von nahezu 1 Petabyte an Netzwerk- und API-Logs durchgeführt, nachdem es zum Context.ai-Verstoß gekommen war. Die Erkenntnisse deuten auf Aktivitäten von Angreifern hin, die über Context.ai hinausgehen: Die Malware wurde an breitere Ziele verteilt, um Anmeldedaten zu stehlen, sowie auf eine schnelle und umfassende Auflistung nicht sensibler Umgebungsvariablen, sobald der Zugriff erlangt wurde. Als Reaktion darauf erweitert Vercel die Zusammenarbeit mit Branchenpartnern, darunter Microsoft, AWS und Wiz, benachrichtigt weitere mutmaßliche Opfer und empfiehlt eine sofortige Rotation von Anmeldedaten sowie verstärkte Sicherheitspraktiken, um weitere Offenlegung zu mindern und das breitere Internet-Ökosystem zu stärken.
Mehr
10:46

SlowMist warnt: Aktive MacSync Stealer- Malware für macOS greift Krypto-Nutzer an

SlowMist warnt vor MacSync Stealer (v1.1.2) für macOS, der Wallets, Anmeldeinformationen, Keychains und Infrastrukturschlüssel stiehlt, mithilfe vorgetäuschter AppleScript-Eingabeaufforderungen und gefälschter "unsupported"-Fehlermeldungen; fordert zur Vorsicht und Aufmerksamkeit gegenüber IOCs auf. Zusammenfassung: Dieser Bericht fasst die Warnung von SlowMist zu MacSync Stealer (v1.1.2) zusammen, einem macOS-Information-Stealer, der Kryptowährungs-Wallets, Browser-Anmeldeinformationen, System-Keychains und Infrastrukturschlüssel (SSH, AWS, Kubernetes) angreift. Er täuscht Benutzer mit vorgetäuschten AppleScript-Dialogen, die zur Eingabe von Passwörtern auffordern, sowie sichtbaren gefälschten "unsupported"-Meldungen. SlowMist stellt IOCs für Kunden bereit und rät, nicht verifizierte macOS-Skripte zu vermeiden und aufmerksam zu bleiben, wenn ungewöhnliche Passwortaufforderungen angezeigt werden.
Mehr
07:51

AWS erweitert Multi-Agent-KI-Workflows und unterstützt Claude Opus 4.7 auf Bedrock

Gate-News-Mitteilung, 22. April — Amazon Web Services hat eine Erweiterung seiner agentischen KI-Initiativen durch Multi-Agent-Workflows angekündigt und unterstützt Anthropics Claude Opus 4.7 auf Amazon Bedrock, um Kunden dabei zu helfen, über generative KI-Piloten hinauszugehen. Das Unternehmen baut die Partnerschaften aus, während Kunden von einzelnen KI-Tools zu Systemen wechseln, die mehrere spezialisierte Agenten verbinden.
Mehr
00:31

Visa bringt Intelligent Commerce Connect für Zahlungen mit KI-Agenten an den Start

Visa stellt Intelligent Commerce Connect vor und ermöglicht KI-initiierte Käufe über eine einzige Integration auf der Visa-Akzeptanzplattform. Dazu gehören Zahlungsinitiierung, Tokenisierung, Authentifizierung und Kontrollen; Pilotprojekte mit Partnern, Rollout ist für dieses Jahr geplant. Zusammenfassung: Visa führt Intelligent Commerce Connect ein, einen Service, der es KI-Agenten ermöglicht, Käufe über eine einzige Integration auf der Visa-Akzeptanzplattform zu initiieren. Er unterstützt Zahlungsinitiierung, Tokenisierung, Authentifizierung und Ausgabenkontrollen für sowohl Visa- als auch Nicht-Visa-Karten und hilft Unternehmen dabei, KI-gestelltes Einkaufen zu unterstützen. Der Service wird derzeit mit Partnern wie Aldar, AWS, Diddo, Highnote, Mesh, Payabli und Sumvin pilotiert, wobei ein breiterer Rollout später in diesem Jahr geplant ist.
Mehr