KI ist nicht bereit wie "Co-Wissenschaftler", sagen Experten
10. April 2025
PatrickGarcia
21

Google hat kürzlich seinen "KI-Co-Scientist" vorgestellt, ein KI-Tool, mit dem Wissenschaftler Hypothesen und Forschungspläne erzeugen sollen. Das Unternehmen hat es als Game-Changer für die Aufdeckung neuer Kenntnisse geführt, aber Experten sind skeptisch gegenüber den Auswirkungen auf die reale Welt.
"Dieses vorläufige Tool, obwohl es interessant ist, scheint aber nicht ernsthaft eingesetzt zu werden", sagte Sara Beery, ein Computer -Vision -Forscher am MIT, in einem Interview mit TechCrunch. "Ich bin mir nicht sicher, ob diese Art von Hypothesen-Generationssystem aus der wissenschaftlichen Gemeinschaft nachgefragt wird."
Google ist nur der neueste Tech-Riese, der behauptet, dass die KI die wissenschaftliche Forschung revolutionieren wird, insbesondere in datenhörigen Bereichen wie Biomedizin. Sam Altman, CEO von OpenAI, schrieb Anfang dieses Jahres in einem Aufsatz, dass "Superintelligent" KI "die wissenschaftliche Entdeckung und Innovation massiv beschleunigen könnte". In ähnlicher Weise hat der anthropische CEO Dario Amodei vorausgesagt, dass KI dazu beitragen könnte, Heilmittel für die meisten Krebsarten zu entwickeln.
Viele Forscher sind jedoch der Ansicht, dass die heutigen KI -Tools diese ehrgeizigen Behauptungen nicht übereinstimmen. Sie argumentieren, dass Anwendungen wie Googles KI-Co-Scientist mehr um Hype als um Substanz geht und die empirischen Daten fehlen, um die Versprechen zu sichern.
Zum Beispiel rühmte sich der Blog-Beitrag von Google über den KI-Co-Scientist mit seinem Potenzial für die Umgestaltung der Arzneimittel für akute myeloische Leukämie, einer Art Blutkrebs, der das Knochenmark betrifft. Die Ergebnisse waren jedoch so vage, dass "kein legitimer Wissenschaftler sie ernst nehmen würde", so Favia Dubyk, Pathologe am Northwest Medical Center-Tucson in Arizona.
"Es könnte ein guter Ausgangspunkt für die Forscher sein, aber der Mangel an Details ist besorgniserregend und leiht mich nicht dazu, ihm zu vertrauen", sagte Dubyk gegenüber TechCrunch. "Der Mangel an Informationen macht es sehr schwer zu verstehen, ob dies wirklich hilfreich sein kann."
Dies ist nicht das erste Mal, dass Google von der wissenschaftlichen Gemeinschaft kritisiert wurde, um einen KI -Durchbruch zu fördern, ohne genügend Details für andere bereitzustellen, um die Ergebnisse zu replizieren.
Bereits im Jahr 2020 behauptete Google, dass eines seiner KI -Systeme, das zum Nachweis von Brusttumoren geschult war, menschliche Radiologen übertraf. Forscher aus Harvard und Stanford veröffentlichten jedoch einen Widerspruch in der Natur und argumentierten, dass das Fehlen detaillierter Methoden und Code in Googles Forschung "ihren wissenschaftlichen Wert untergrub".
Wissenschaftler haben Google auch dafür kritisiert, die Einschränkungen seiner KI -Tools in Bereichen wie Materials Engineering herunterzuspielen. Im Jahr 2023 behauptete das Unternehmen, dass rund 40 "neue Materialien" mit Hilfe seines KI -Systems Gnome synthetisiert wurden. Eine unabhängige Analyse ergab jedoch, dass keines dieser Materialien tatsächlich neu war.
"Wir werden die Stärken und Einschränkungen von Tools wie" Co-Wissenschaftler "von Google nicht wirklich verstehen, bis sie eine strenge, unabhängige Bewertung in verschiedenen wissenschaftlichen Disziplinen durchlaufen", sagte Ashique Khudabukhsh, Assistenzprofessorin für Software-Engineering am Rochester Institute of Technology, in einem Interview mit TechCrunch. "KI leistet in kontrollierten Umgebungen häufig gut, kann jedoch bei der Anwendung im Maßstab fehlschlagen."
Komplexe Prozesse
Die Entwicklung von KI -Werkzeugen zur Unterstützung der wissenschaftlichen Entdeckung ist schwierig, da es schwierig ist, alle Faktoren vorherzusagen, die einen Schraubenschlüssel in Arbeit werfen könnten. KI kann nützlich sein, um eine große Liste von Möglichkeiten zu durchsuchen, aber es ist weniger klar, ob sie mit der Art der kreativen Problemlösung umgehen kann, die zu großen Durchbrüchen führt.
"Wir haben im Laufe der Geschichte gesehen, dass einige der wichtigsten wissenschaftlichen Fortschritte, wie die Entwicklung von mRNA -Impfstoffen, von menschlicher Intuition und Ausdauer angesichts der Skepsis getrieben wurden", sagte Khudabukhsh. "KI, wie es heute aussieht, ist vielleicht nicht gut geeignet, um das zu replizieren."
Lana Sinapayen, AI-Forscherin bei Sony Informatik Laboratories in Japan, ist der Ansicht, dass Tools wie der Co-Wissenschaftler von Google auf die falschen Aspekte der wissenschaftlichen Arbeit konzentrieren.
Sinapayen sieht einen Wert in KI, der mühsame Aufgaben automatisieren kann, z. B. die Zusammenfassung neuer akademischer Literatur oder die Formatierung von Zuschüsseanträgen. Aber sie argumentiert, dass es wenig Forderung nach einem KI-Co-Wissenschaftler gibt, der Hypothesen erzeugt, eine Aufgabe, die viele Forscher intellektuell lohnend empfinden.
"Für viele Wissenschaftler, eingeschlossen, ist die Erzeugung von Hypothesen der lustigste Teil des Jobs", sagte Sinapayen gegenüber TechCrunch. "Warum sollte ich meinen Spaß an einen Computer auslagern und dann nur die harte Arbeit, um mich selbst zu tun? Im Allgemeinen scheinen viele generative KI -Forscher falsch zu verstehen, warum Menschen das tun, was sie tun, und wir haben Vorschläge für Produkte, die den Teil automatisieren, an dem wir Freude erhalten."
Beery wies darauf hin, dass der schwierigste Teil des wissenschaftlichen Prozesses häufig darin besteht, Studien zum Testen von Hypothesen zu entwerfen und zu implementieren, mit denen aktuelle KI -Systeme zu kämpfen haben. KI kann keine Experimente physisch durchführen, und es kämpft häufig mit Problemen, bei denen Daten knapp sind.
"Die meisten Wissenschaft sind nicht möglich, virtuell vollständig zu tun - es gibt häufig einen wesentlichen Bestandteil des wissenschaftlichen Prozesses, der physisch ist, z. B. das Sammeln neuer Daten und die Durchführung von Experimenten im Labor", sagte Beery. "Eine große Einschränkung von Systemen wie dem Co-Wissenschaftler von Google im Verhältnis zum tatsächlichen wissenschaftlichen Prozess, der seine Benutzerfreundlichkeit definitiv einschränkt, ist ein Zusammenhang mit dem Labor und Forscher, die das System und ihre spezifischen Forschungsziele, ihre früheren Arbeiten, ihre Fähigkeiten und die Ressourcen, auf die sie zugreifen können, mithilfe des Systems und deren spezifischen Forschungsziele einschränken."
KI -Risiken
Die technischen Einschränkungen und Risiken der KI, wie die Tendenz, falsche Informationen zu "halluzinieren" oder falsche Informationen zu generieren, machen Wissenschaftler vorsichtig, wenn sie sich auf ernsthafte Arbeit darauf verlassen.
Khudabukhsh befürchtet, dass KI -Tools die wissenschaftliche Literatur mit Lärm überfluten, anstatt den Fortschritt zu verbessern.
Es passiert schon. Eine kürzlich durchgeführte Studie ergab, dass "Junk Science" von AI-generiert ist, die Google Scholar, die kostenlose Suchmaschine von Google für wissenschaftliche Literatur, überschwemmt.
"A-generierte Forschungen, wenn sie nicht sorgfältig überwacht werden, könnten das wissenschaftliche Bereich mit niedrigeren oder sogar irreführenden Studien überfluten und den Peer-Review-Prozess überwältigen", sagte Khudabukhsh. "Ein überwältigter Peer-Review-Prozess ist in Bereichen wie Informatik bereits eine Herausforderung, auf denen Top-Konferenzen einen exponentiellen Anstieg der Einreichungen verzeichnet haben."
Selbst gut gestaltete Studien könnten durch Fehl benehmen, da Sinapayen sich schlecht benimmt. Während sie die Idee eines Tools schätzt, das bei der Literaturrecherche und -synthese helfen könnte, würde sie dem heutigen KI nicht vertrauen, um diesen Job zuverlässig zu machen.
"Das sind Dinge, die verschiedene vorhandene Tools behaupten, aber das sind keine Jobs, die ich persönlich der aktuellen KI überlassen würde", sagte Sinapayen. Sie äußerte auch Bedenken hinsichtlich der Ausbildung von KI -Systemen und der Energie, die sie verbrauchen. "Auch wenn alle ethischen Probleme gelöst wurden, ist die aktuelle KI einfach nicht zuverlässig genug, damit ich meine Arbeit auf die eine oder andere Weise auf der Output stationiere."
Verwandter Artikel
Wie wir KI verwenden, um Städten zu helfen, extreme Hitze anzugehen
Es sieht so aus, als ob 2024 den Rekord für das heißeste Jahr bis 2023 überschreiten könnte. Dieser Trend ist besonders hart für Leute, die auf städtischen Hitzeinseln leben - diese Stellen in Städten, in denen Beton und Asphalt die Sonnenstrahlen aufsaugen und dann die Hitze gleich wieder ausstrahlen. Diese Bereiche können sich erwärmen
'Erniedrigte' synthetische Gesichter können die Gesichtserkennungstechnologie verbessern
Forscher der Michigan State University haben eine innovative Möglichkeit, synthetische Gesichter für eine edle Sache zu verwenden - die Genauigkeit von Bilderkennungssystemen zu verbessern. Anstatt zum Phänomen der Deepfakes beizutragen, sind diese synthetischen Gesichter so ausgelegt, dass sie die in Real- und Realinalen gefundenen Unvollkommenheiten imitieren.
Deepseeks AIS entdecken wahre menschliche Wünsche
Deepseeks Durchbruch in KI -Belohnungsmodellen: Verbesserung der KI -Argumentation und Reaktion Chinesisches KI -Startup Deepseek in Zusammenarbeit mit der Tsinghua University hat einen bedeutenden Meilenstein in der KI -Forschung erreicht. Ihr innovativer Ansatz für KI -Belohnungsmodelle verspricht zu revolutionieren, wie KI -Systeme lernen
Kommentare (30)
0/200
JamesGreen
11. April 2025 04:37:06 GMT
I tried the AI co-scientist tool and honestly, it's not as revolutionary as Google claims. It's more like a fancy suggestion box than a real help in generating hypotheses. It's okay for brainstorming but don't expect it to do the heavy lifting. Maybe it'll get better with updates, but right now, it's just meh.
0
AnthonyJohnson
11. April 2025 04:37:06 GMT
El co-científico de IA de Google no es tan impresionante. Es útil para generar algunas ideas, pero no cambia el juego como dicen. La verdad es que esperaba más. Si mejoran la herramienta en el futuro, podría ser útil, pero por ahora, no es gran cosa.
0
EllaJohnson
11. April 2025 04:37:06 GMT
GoogleのAI共同科学者は期待外れだった。仮説を生成するのに役立つかと思ったけど、実際にはそれほどでもない。ブレインストーミングには使えるけど、もっと革新的なものを期待していた。将来のアップデートに期待したいけど、今は微妙。
0
AlbertAllen
11. April 2025 04:37:06 GMT
Testei o co-cientista de IA do Google e não achei grande coisa. É mais uma caixa de sugestões do que uma ajuda real na geração de hipóteses. Serve para brainstorming, mas não é revolucionário como dizem. Talvez melhore com atualizações, mas por enquanto, é só isso.
0
FrankRodriguez
11. April 2025 04:37:06 GMT
Tôi đã thử công cụ co-scientist AI của Google và thật sự nó không thay đổi trò chơi như họ nói. Nó giống như một hộp gợi ý hơn là một sự giúp đỡ thực sự trong việc tạo ra giả thuyết. Nó ổn cho việc brainstorm nhưng đừng mong đợi nó làm việc nặng nhọc. Có lẽ sẽ tốt hơn với các bản cập nhật, nhưng hiện tại thì chỉ ở mức bình thường.
0
FredWhite
12. April 2025 04:32:58 GMT
I tried the AI co-scientist tool and honestly, it's not as revolutionary as Google claims. It's more like a fancy hypothesis generator, but it doesn't really help with the actual research. Maybe it'll get better with updates, but right now, it's just okay. Keep your expectations in check!
0






Google hat kürzlich seinen "KI-Co-Scientist" vorgestellt, ein KI-Tool, mit dem Wissenschaftler Hypothesen und Forschungspläne erzeugen sollen. Das Unternehmen hat es als Game-Changer für die Aufdeckung neuer Kenntnisse geführt, aber Experten sind skeptisch gegenüber den Auswirkungen auf die reale Welt.
"Dieses vorläufige Tool, obwohl es interessant ist, scheint aber nicht ernsthaft eingesetzt zu werden", sagte Sara Beery, ein Computer -Vision -Forscher am MIT, in einem Interview mit TechCrunch. "Ich bin mir nicht sicher, ob diese Art von Hypothesen-Generationssystem aus der wissenschaftlichen Gemeinschaft nachgefragt wird."
Google ist nur der neueste Tech-Riese, der behauptet, dass die KI die wissenschaftliche Forschung revolutionieren wird, insbesondere in datenhörigen Bereichen wie Biomedizin. Sam Altman, CEO von OpenAI, schrieb Anfang dieses Jahres in einem Aufsatz, dass "Superintelligent" KI "die wissenschaftliche Entdeckung und Innovation massiv beschleunigen könnte". In ähnlicher Weise hat der anthropische CEO Dario Amodei vorausgesagt, dass KI dazu beitragen könnte, Heilmittel für die meisten Krebsarten zu entwickeln.
Viele Forscher sind jedoch der Ansicht, dass die heutigen KI -Tools diese ehrgeizigen Behauptungen nicht übereinstimmen. Sie argumentieren, dass Anwendungen wie Googles KI-Co-Scientist mehr um Hype als um Substanz geht und die empirischen Daten fehlen, um die Versprechen zu sichern.
Zum Beispiel rühmte sich der Blog-Beitrag von Google über den KI-Co-Scientist mit seinem Potenzial für die Umgestaltung der Arzneimittel für akute myeloische Leukämie, einer Art Blutkrebs, der das Knochenmark betrifft. Die Ergebnisse waren jedoch so vage, dass "kein legitimer Wissenschaftler sie ernst nehmen würde", so Favia Dubyk, Pathologe am Northwest Medical Center-Tucson in Arizona.
"Es könnte ein guter Ausgangspunkt für die Forscher sein, aber der Mangel an Details ist besorgniserregend und leiht mich nicht dazu, ihm zu vertrauen", sagte Dubyk gegenüber TechCrunch. "Der Mangel an Informationen macht es sehr schwer zu verstehen, ob dies wirklich hilfreich sein kann."
Dies ist nicht das erste Mal, dass Google von der wissenschaftlichen Gemeinschaft kritisiert wurde, um einen KI -Durchbruch zu fördern, ohne genügend Details für andere bereitzustellen, um die Ergebnisse zu replizieren.
Bereits im Jahr 2020 behauptete Google, dass eines seiner KI -Systeme, das zum Nachweis von Brusttumoren geschult war, menschliche Radiologen übertraf. Forscher aus Harvard und Stanford veröffentlichten jedoch einen Widerspruch in der Natur und argumentierten, dass das Fehlen detaillierter Methoden und Code in Googles Forschung "ihren wissenschaftlichen Wert untergrub".
Wissenschaftler haben Google auch dafür kritisiert, die Einschränkungen seiner KI -Tools in Bereichen wie Materials Engineering herunterzuspielen. Im Jahr 2023 behauptete das Unternehmen, dass rund 40 "neue Materialien" mit Hilfe seines KI -Systems Gnome synthetisiert wurden. Eine unabhängige Analyse ergab jedoch, dass keines dieser Materialien tatsächlich neu war.
"Wir werden die Stärken und Einschränkungen von Tools wie" Co-Wissenschaftler "von Google nicht wirklich verstehen, bis sie eine strenge, unabhängige Bewertung in verschiedenen wissenschaftlichen Disziplinen durchlaufen", sagte Ashique Khudabukhsh, Assistenzprofessorin für Software-Engineering am Rochester Institute of Technology, in einem Interview mit TechCrunch. "KI leistet in kontrollierten Umgebungen häufig gut, kann jedoch bei der Anwendung im Maßstab fehlschlagen."
Komplexe Prozesse
Die Entwicklung von KI -Werkzeugen zur Unterstützung der wissenschaftlichen Entdeckung ist schwierig, da es schwierig ist, alle Faktoren vorherzusagen, die einen Schraubenschlüssel in Arbeit werfen könnten. KI kann nützlich sein, um eine große Liste von Möglichkeiten zu durchsuchen, aber es ist weniger klar, ob sie mit der Art der kreativen Problemlösung umgehen kann, die zu großen Durchbrüchen führt.
"Wir haben im Laufe der Geschichte gesehen, dass einige der wichtigsten wissenschaftlichen Fortschritte, wie die Entwicklung von mRNA -Impfstoffen, von menschlicher Intuition und Ausdauer angesichts der Skepsis getrieben wurden", sagte Khudabukhsh. "KI, wie es heute aussieht, ist vielleicht nicht gut geeignet, um das zu replizieren."
Lana Sinapayen, AI-Forscherin bei Sony Informatik Laboratories in Japan, ist der Ansicht, dass Tools wie der Co-Wissenschaftler von Google auf die falschen Aspekte der wissenschaftlichen Arbeit konzentrieren.
Sinapayen sieht einen Wert in KI, der mühsame Aufgaben automatisieren kann, z. B. die Zusammenfassung neuer akademischer Literatur oder die Formatierung von Zuschüsseanträgen. Aber sie argumentiert, dass es wenig Forderung nach einem KI-Co-Wissenschaftler gibt, der Hypothesen erzeugt, eine Aufgabe, die viele Forscher intellektuell lohnend empfinden.
"Für viele Wissenschaftler, eingeschlossen, ist die Erzeugung von Hypothesen der lustigste Teil des Jobs", sagte Sinapayen gegenüber TechCrunch. "Warum sollte ich meinen Spaß an einen Computer auslagern und dann nur die harte Arbeit, um mich selbst zu tun? Im Allgemeinen scheinen viele generative KI -Forscher falsch zu verstehen, warum Menschen das tun, was sie tun, und wir haben Vorschläge für Produkte, die den Teil automatisieren, an dem wir Freude erhalten."
Beery wies darauf hin, dass der schwierigste Teil des wissenschaftlichen Prozesses häufig darin besteht, Studien zum Testen von Hypothesen zu entwerfen und zu implementieren, mit denen aktuelle KI -Systeme zu kämpfen haben. KI kann keine Experimente physisch durchführen, und es kämpft häufig mit Problemen, bei denen Daten knapp sind.
"Die meisten Wissenschaft sind nicht möglich, virtuell vollständig zu tun - es gibt häufig einen wesentlichen Bestandteil des wissenschaftlichen Prozesses, der physisch ist, z. B. das Sammeln neuer Daten und die Durchführung von Experimenten im Labor", sagte Beery. "Eine große Einschränkung von Systemen wie dem Co-Wissenschaftler von Google im Verhältnis zum tatsächlichen wissenschaftlichen Prozess, der seine Benutzerfreundlichkeit definitiv einschränkt, ist ein Zusammenhang mit dem Labor und Forscher, die das System und ihre spezifischen Forschungsziele, ihre früheren Arbeiten, ihre Fähigkeiten und die Ressourcen, auf die sie zugreifen können, mithilfe des Systems und deren spezifischen Forschungsziele einschränken."
KI -Risiken
Die technischen Einschränkungen und Risiken der KI, wie die Tendenz, falsche Informationen zu "halluzinieren" oder falsche Informationen zu generieren, machen Wissenschaftler vorsichtig, wenn sie sich auf ernsthafte Arbeit darauf verlassen.
Khudabukhsh befürchtet, dass KI -Tools die wissenschaftliche Literatur mit Lärm überfluten, anstatt den Fortschritt zu verbessern.
Es passiert schon. Eine kürzlich durchgeführte Studie ergab, dass "Junk Science" von AI-generiert ist, die Google Scholar, die kostenlose Suchmaschine von Google für wissenschaftliche Literatur, überschwemmt.
"A-generierte Forschungen, wenn sie nicht sorgfältig überwacht werden, könnten das wissenschaftliche Bereich mit niedrigeren oder sogar irreführenden Studien überfluten und den Peer-Review-Prozess überwältigen", sagte Khudabukhsh. "Ein überwältigter Peer-Review-Prozess ist in Bereichen wie Informatik bereits eine Herausforderung, auf denen Top-Konferenzen einen exponentiellen Anstieg der Einreichungen verzeichnet haben."
Selbst gut gestaltete Studien könnten durch Fehl benehmen, da Sinapayen sich schlecht benimmt. Während sie die Idee eines Tools schätzt, das bei der Literaturrecherche und -synthese helfen könnte, würde sie dem heutigen KI nicht vertrauen, um diesen Job zuverlässig zu machen.
"Das sind Dinge, die verschiedene vorhandene Tools behaupten, aber das sind keine Jobs, die ich persönlich der aktuellen KI überlassen würde", sagte Sinapayen. Sie äußerte auch Bedenken hinsichtlich der Ausbildung von KI -Systemen und der Energie, die sie verbrauchen. "Auch wenn alle ethischen Probleme gelöst wurden, ist die aktuelle KI einfach nicht zuverlässig genug, damit ich meine Arbeit auf die eine oder andere Weise auf der Output stationiere."



I tried the AI co-scientist tool and honestly, it's not as revolutionary as Google claims. It's more like a fancy suggestion box than a real help in generating hypotheses. It's okay for brainstorming but don't expect it to do the heavy lifting. Maybe it'll get better with updates, but right now, it's just meh.




El co-científico de IA de Google no es tan impresionante. Es útil para generar algunas ideas, pero no cambia el juego como dicen. La verdad es que esperaba más. Si mejoran la herramienta en el futuro, podría ser útil, pero por ahora, no es gran cosa.




GoogleのAI共同科学者は期待外れだった。仮説を生成するのに役立つかと思ったけど、実際にはそれほどでもない。ブレインストーミングには使えるけど、もっと革新的なものを期待していた。将来のアップデートに期待したいけど、今は微妙。




Testei o co-cientista de IA do Google e não achei grande coisa. É mais uma caixa de sugestões do que uma ajuda real na geração de hipóteses. Serve para brainstorming, mas não é revolucionário como dizem. Talvez melhore com atualizações, mas por enquanto, é só isso.




Tôi đã thử công cụ co-scientist AI của Google và thật sự nó không thay đổi trò chơi như họ nói. Nó giống như một hộp gợi ý hơn là một sự giúp đỡ thực sự trong việc tạo ra giả thuyết. Nó ổn cho việc brainstorm nhưng đừng mong đợi nó làm việc nặng nhọc. Có lẽ sẽ tốt hơn với các bản cập nhật, nhưng hiện tại thì chỉ ở mức bình thường.




I tried the AI co-scientist tool and honestly, it's not as revolutionary as Google claims. It's more like a fancy hypothesis generator, but it doesn't really help with the actual research. Maybe it'll get better with updates, but right now, it's just okay. Keep your expectations in check!












