

Red Hut auf offenen, kleinen Sprachmodellen für verantwortungsbewusste, praktische KI
24. April 2025
JasonRoberts
0
Geopolitische Einflüsse auf die KI -Entwicklung und -nutzung
Da globale Veranstaltungen unsere Welt weiterhin prägen, ist es unvermeidlich, dass sie den Technologiesektor, insbesondere den KI -Markt, beeinflussen. Dieser Einfluss erstreckt sich auf die Entwicklung der KI, ihre Methoden und ihre Anwendung innerhalb von Unternehmen. Die gegenwärtige Landschaft von KI ist eine Mischung aus Aufregung und Skepsis, wobei einige ihr Potenzial ausschöpfen, während andere aufgrund ihrer frühen Entwicklungsstadien vorsichtig sind.
Die traditionellen Modelle mit geschlossener Kreislauf (LLMs) wie diejenigen aus bekannten Anbietern stehen konkurrieren von neueren, offeneren Modellen wie Lama, Deepseek und Baidus Ernie X1. Im Gegensatz dazu bietet die Open-Source-Entwicklung Transparenz und die Möglichkeit für den Beitrag der Gemeinschaft, das sich mit dem Konzept der "verantwortlichen KI" auszurichten. Dieser Ansatz berücksichtigt Umweltauswirkungen, Nutzungsethik, Lerndatenquellen und Probleme im Zusammenhang mit Datensouveränität, Sprache und Politik.
Red Hat, ein Unternehmen, das für sein erfolgreiches Open-Source-Geschäftsmodell bekannt ist, ist daran interessiert, seinen kollaborativen und transparenten Ansatz für KI anzuwenden. In einem kürzlich durchgeführten Gespräch mit Julio Guijarro, Red Hat CTO für EMEA, haben wir ihre Strategie besprochen, die Macht der generativen KI auf eine Weise zu nutzen, die den Unternehmen verantwortungsbewusst und nachhaltig einen Mehrwert verleiht.
Die Notwendigkeit von Bildung und Transparenz
Julio betonte das Bedürfnis nach mehr Bildung in der Umgebung von AI und wies darauf hin, dass seine komplexe Natur es oft zu einer "schwarzen Box" für viele macht. "Die inneren Arbeiten von KI, die tief in komplexen Wissenschaft und Mathematik verwurzelt sind, sind weitgehend unbekannt", sagte er. "Dieser Mangel an Transparenz wird verschärft, wenn KI in geschlossenen Umgebungen entwickelt wird."
Weitere Herausforderungen sind die Unterrepräsentation bestimmter Sprachen, Bedenken hinsichtlich der Datensouveränität und Vertrauensprobleme. Julio bemerkte: "Daten sind das wertvollste Kapital eines Unternehmens, und Unternehmen müssen sich über die Risiken bewusst sein, sensible Daten mit unterschiedlichen Datenschutzrichtlinien an öffentliche Plattformen auszusetzen."
Red Hat's Herangehensweise an die KI
Die Reaktion von Red Hat auf die weltweite Nachfrage nach KI konzentriert sich auf die Bereitstellung von Vorteilen für Endbenutzer und wird mit den Zweifeln und Einschränkungen, die mit traditionellen KI-Diensten verbunden sind, angehen. Julio hob das Potenzial kleiner Sprachmodelle (SLMs) als Lösung hervor. Diese Modelle können lokal oder auf Hybridwolken mithilfe von nicht spezialisierten Hardware ausführen und auf lokale Geschäftsdaten zugreifen. SLMs sind effizient und aufgabenspezifisch und erfordern weniger Ressourcen als LLMs.
Einer der wichtigsten Vorteile von SLMS ist die Fähigkeit, mit sich schnell ändernden Geschäftsdaten auf dem Laufenden zu bleiben. "Große Sprachmodelle können schnell veraltet sein, da die Datenerzeugung außerhalb der großen Wolken direkt neben Ihren Geschäftsprozessen auftritt", erklärte Julio.
Kosten sind ein weiterer kritischer Faktor. "Kundendienstfragen mit einem LLM können erhebliche versteckte Kosten verursachen", sagte Julio. "Vor der KI hatten Datenabfragen einen vorhersehbaren Umfang und Kosten. Bei LLMs kann jede Interaktion die Kosten eskalieren, da sie mit einem iterativen Modell arbeiten. Durchführen von Modellen On-Premise ermöglichen eine höhere Kontrolle über die Kosten, da sie an Ihre Infrastruktur gebunden sind, nicht an den Gebühren."
Zum Glück müssen Unternehmen nicht stark in spezielle Hardware wie GPUs investieren. Red Hat arbeitet daran, Modelle so zu optimieren, dass sie auf Standardhardware ausgeführt werden.
Die Bedeutung kleinerer, lokalisierter Modelle
Durch die Verwendung und Referenzierung lokaler Daten können Ergebnisse auf bestimmte Anforderungen zugeschnitten werden. Julio verwies auf Projekte in Regionen wie arabisch- und portugiesischsprachigen Welten, die von den englisch-zentrierten LLMs nicht gut bedient werden.
Es gibt praktische Herausforderungen bei LLMs, einschließlich Latenzproblemen, die sich auf zeitkritische oder kundenorientierte Anwendungen auswirken können. Wenn Sie Ressourcen und Ergebnisse in der Nähe des Benutzers halten, können Sie diese Probleme mildern.
Vertrauen ist ein weiterer entscheidender Aspekt der verantwortlichen KI. Red Hat setzt sich für offene Plattformen, Tools und Modelle ein, um die Transparenz zu erhöhen und eine breitere Beteiligung der Gemeinschaft zu ermöglichen. "Es ist für alle wichtig", sagte Julio. "Wir bauen Fähigkeiten zur Demokratisierung der KI auf, nicht nur durch Veröffentlichung von Modellen, sondern auch durch Tools für Benutzer, um sie zu replizieren, einzustellen und sie zu bedienen."
Der jüngste Akquisition von Neural Magic durch Red Hat zielt darauf ab, Enterprises dabei zu helfen, die KI leichter zu skalieren, die Inferenzleistung zu verbessern und mehr Auswahlmöglichkeiten beim Aufbau und Bereitstellen von KI -Workloads über das VLLM -Projekt zu bieten. In Zusammenarbeit mit IBM Research veröffentlichte Red Hat veröffentlichte die KI-Entwicklung für Nicht-Data-Wissenschaftler, die wertvolles Geschäftswissen besitzen.
Die Zukunft der KI
Während es viele Spekulationen über die KI-Blase gibt, glaubt Red Hat an eine Zukunft, in der KI auf bestimmte Anwendungsfälle zugeschnitten ist und Open-Source bleibt. Dieser Ansatz ist wirtschaftlich tragfähig und für alle zugänglich. Wie Matt Hicks, CEO von Red Hat, erklärte: "Die Zukunft der KI ist offen."

Verwandter Artikel
Stunden mit KI -Zeitmanagement -Automatisierung zurückerhalten
Mit endlosen To-Do-Listen und verpassten Fristen zu kämpfen? KI könnte Ihr Antworten sein, wenn Sie in einem Meer von Aufgaben und Fristen ertrinken, die immer durch Ihre Finger rutschen? In unserer schnelllebigen Welt ist die Zeit ein kostbares Gut, und es kann sich effektiv wie ein Unmögliches anfühlen
Trumps erstes Kabinettstreffen: Ein ausführlicher Blick auf das Chaos
Donald Trumps erstes Kabinettstreffen seiner neuen Amtszeit war alles andere als gewöhnlich, geprägt von einer Reihe ungewöhnlicher Momente und einer Flut von Fehlinformationen, bei denen Beobachter sowohl verwirrt als auch besorgt über den Zustand der Wirtschaft und des Verbrauchers waren. Dieser Artikel taucht in die Schlüsselmomente der M ein
Googles NotebookLM sammelt jetzt Forschungsquellen kostenlos
Googles NotebookLM ist ein fantastisches Tool für alle, die in ein forschungslastendes Projekt eintauchen. Normalerweise müssten Sie alle Ihre Quellen jagen und manuell hinzufügen, aber jetzt wird NotebookLM Ihren Forschungsprozess noch weiter rationalisieren, indem Sie das schwere Heben für Sie durchführen. Am Mittwoch hat Google enthüllt
Kommentare (0)
0/200






Geopolitische Einflüsse auf die KI -Entwicklung und -nutzung
Da globale Veranstaltungen unsere Welt weiterhin prägen, ist es unvermeidlich, dass sie den Technologiesektor, insbesondere den KI -Markt, beeinflussen. Dieser Einfluss erstreckt sich auf die Entwicklung der KI, ihre Methoden und ihre Anwendung innerhalb von Unternehmen. Die gegenwärtige Landschaft von KI ist eine Mischung aus Aufregung und Skepsis, wobei einige ihr Potenzial ausschöpfen, während andere aufgrund ihrer frühen Entwicklungsstadien vorsichtig sind.
Die traditionellen Modelle mit geschlossener Kreislauf (LLMs) wie diejenigen aus bekannten Anbietern stehen konkurrieren von neueren, offeneren Modellen wie Lama, Deepseek und Baidus Ernie X1. Im Gegensatz dazu bietet die Open-Source-Entwicklung Transparenz und die Möglichkeit für den Beitrag der Gemeinschaft, das sich mit dem Konzept der "verantwortlichen KI" auszurichten. Dieser Ansatz berücksichtigt Umweltauswirkungen, Nutzungsethik, Lerndatenquellen und Probleme im Zusammenhang mit Datensouveränität, Sprache und Politik.
Red Hat, ein Unternehmen, das für sein erfolgreiches Open-Source-Geschäftsmodell bekannt ist, ist daran interessiert, seinen kollaborativen und transparenten Ansatz für KI anzuwenden. In einem kürzlich durchgeführten Gespräch mit Julio Guijarro, Red Hat CTO für EMEA, haben wir ihre Strategie besprochen, die Macht der generativen KI auf eine Weise zu nutzen, die den Unternehmen verantwortungsbewusst und nachhaltig einen Mehrwert verleiht.
Die Notwendigkeit von Bildung und Transparenz
Julio betonte das Bedürfnis nach mehr Bildung in der Umgebung von AI und wies darauf hin, dass seine komplexe Natur es oft zu einer "schwarzen Box" für viele macht. "Die inneren Arbeiten von KI, die tief in komplexen Wissenschaft und Mathematik verwurzelt sind, sind weitgehend unbekannt", sagte er. "Dieser Mangel an Transparenz wird verschärft, wenn KI in geschlossenen Umgebungen entwickelt wird."
Weitere Herausforderungen sind die Unterrepräsentation bestimmter Sprachen, Bedenken hinsichtlich der Datensouveränität und Vertrauensprobleme. Julio bemerkte: "Daten sind das wertvollste Kapital eines Unternehmens, und Unternehmen müssen sich über die Risiken bewusst sein, sensible Daten mit unterschiedlichen Datenschutzrichtlinien an öffentliche Plattformen auszusetzen."
Red Hat's Herangehensweise an die KI
Die Reaktion von Red Hat auf die weltweite Nachfrage nach KI konzentriert sich auf die Bereitstellung von Vorteilen für Endbenutzer und wird mit den Zweifeln und Einschränkungen, die mit traditionellen KI-Diensten verbunden sind, angehen. Julio hob das Potenzial kleiner Sprachmodelle (SLMs) als Lösung hervor. Diese Modelle können lokal oder auf Hybridwolken mithilfe von nicht spezialisierten Hardware ausführen und auf lokale Geschäftsdaten zugreifen. SLMs sind effizient und aufgabenspezifisch und erfordern weniger Ressourcen als LLMs.
Einer der wichtigsten Vorteile von SLMS ist die Fähigkeit, mit sich schnell ändernden Geschäftsdaten auf dem Laufenden zu bleiben. "Große Sprachmodelle können schnell veraltet sein, da die Datenerzeugung außerhalb der großen Wolken direkt neben Ihren Geschäftsprozessen auftritt", erklärte Julio.
Kosten sind ein weiterer kritischer Faktor. "Kundendienstfragen mit einem LLM können erhebliche versteckte Kosten verursachen", sagte Julio. "Vor der KI hatten Datenabfragen einen vorhersehbaren Umfang und Kosten. Bei LLMs kann jede Interaktion die Kosten eskalieren, da sie mit einem iterativen Modell arbeiten. Durchführen von Modellen On-Premise ermöglichen eine höhere Kontrolle über die Kosten, da sie an Ihre Infrastruktur gebunden sind, nicht an den Gebühren."
Zum Glück müssen Unternehmen nicht stark in spezielle Hardware wie GPUs investieren. Red Hat arbeitet daran, Modelle so zu optimieren, dass sie auf Standardhardware ausgeführt werden.
Die Bedeutung kleinerer, lokalisierter Modelle
Durch die Verwendung und Referenzierung lokaler Daten können Ergebnisse auf bestimmte Anforderungen zugeschnitten werden. Julio verwies auf Projekte in Regionen wie arabisch- und portugiesischsprachigen Welten, die von den englisch-zentrierten LLMs nicht gut bedient werden.
Es gibt praktische Herausforderungen bei LLMs, einschließlich Latenzproblemen, die sich auf zeitkritische oder kundenorientierte Anwendungen auswirken können. Wenn Sie Ressourcen und Ergebnisse in der Nähe des Benutzers halten, können Sie diese Probleme mildern.
Vertrauen ist ein weiterer entscheidender Aspekt der verantwortlichen KI. Red Hat setzt sich für offene Plattformen, Tools und Modelle ein, um die Transparenz zu erhöhen und eine breitere Beteiligung der Gemeinschaft zu ermöglichen. "Es ist für alle wichtig", sagte Julio. "Wir bauen Fähigkeiten zur Demokratisierung der KI auf, nicht nur durch Veröffentlichung von Modellen, sondern auch durch Tools für Benutzer, um sie zu replizieren, einzustellen und sie zu bedienen."
Der jüngste Akquisition von Neural Magic durch Red Hat zielt darauf ab, Enterprises dabei zu helfen, die KI leichter zu skalieren, die Inferenzleistung zu verbessern und mehr Auswahlmöglichkeiten beim Aufbau und Bereitstellen von KI -Workloads über das VLLM -Projekt zu bieten. In Zusammenarbeit mit IBM Research veröffentlichte Red Hat veröffentlichte die KI-Entwicklung für Nicht-Data-Wissenschaftler, die wertvolles Geschäftswissen besitzen.
Die Zukunft der KI
Während es viele Spekulationen über die KI-Blase gibt, glaubt Red Hat an eine Zukunft, in der KI auf bestimmte Anwendungsfälle zugeschnitten ist und Open-Source bleibt. Dieser Ansatz ist wirtschaftlich tragfähig und für alle zugänglich. Wie Matt Hicks, CEO von Red Hat, erklärte: "Die Zukunft der KI ist offen."



5 einfache Schritte zur Rückforderung für Ihre Online -Datenschutz - beginnen Sie noch heute
Optimierungen an US -Rechenzentren könnten 76 GW neue Leistungskapazität freischalten Großbritannien KI Körperbenamen in das Sicherheitsinstitut, unterschreibt MoU mit anthropisch Nvidia enthüllt GPUs der nächsten Generation: Blackwell Ultra, Vera Rubin, Feynman Telli, ein YC-Alaun, sichert die vorbereitete Finanzierung für KI-Sprachagenten








