KI ist nicht bereit wie "Co-Wissenschaftler", sagen Experten

Google hat kürzlich seinen "KI-Co-Scientist" vorgestellt, ein KI-Tool, mit dem Wissenschaftler Hypothesen und Forschungspläne erzeugen sollen. Das Unternehmen hat es als Game-Changer für die Aufdeckung neuer Kenntnisse geführt, aber Experten sind skeptisch gegenüber den Auswirkungen auf die reale Welt.
"Dieses vorläufige Tool, obwohl es interessant ist, scheint aber nicht ernsthaft eingesetzt zu werden", sagte Sara Beery, ein Computer -Vision -Forscher am MIT, in einem Interview mit TechCrunch. "Ich bin mir nicht sicher, ob diese Art von Hypothesen-Generationssystem aus der wissenschaftlichen Gemeinschaft nachgefragt wird."
Google ist nur der neueste Tech-Riese, der behauptet, dass die KI die wissenschaftliche Forschung revolutionieren wird, insbesondere in datenhörigen Bereichen wie Biomedizin. Sam Altman, CEO von OpenAI, schrieb Anfang dieses Jahres in einem Aufsatz, dass "Superintelligent" KI "die wissenschaftliche Entdeckung und Innovation massiv beschleunigen könnte". In ähnlicher Weise hat der anthropische CEO Dario Amodei vorausgesagt, dass KI dazu beitragen könnte, Heilmittel für die meisten Krebsarten zu entwickeln.
Viele Forscher sind jedoch der Ansicht, dass die heutigen KI -Tools diese ehrgeizigen Behauptungen nicht übereinstimmen. Sie argumentieren, dass Anwendungen wie Googles KI-Co-Scientist mehr um Hype als um Substanz geht und die empirischen Daten fehlen, um die Versprechen zu sichern.
Zum Beispiel rühmte sich der Blog-Beitrag von Google über den KI-Co-Scientist mit seinem Potenzial für die Umgestaltung der Arzneimittel für akute myeloische Leukämie, einer Art Blutkrebs, der das Knochenmark betrifft. Die Ergebnisse waren jedoch so vage, dass "kein legitimer Wissenschaftler sie ernst nehmen würde", so Favia Dubyk, Pathologe am Northwest Medical Center-Tucson in Arizona.
"Es könnte ein guter Ausgangspunkt für die Forscher sein, aber der Mangel an Details ist besorgniserregend und leiht mich nicht dazu, ihm zu vertrauen", sagte Dubyk gegenüber TechCrunch. "Der Mangel an Informationen macht es sehr schwer zu verstehen, ob dies wirklich hilfreich sein kann."
Dies ist nicht das erste Mal, dass Google von der wissenschaftlichen Gemeinschaft kritisiert wurde, um einen KI -Durchbruch zu fördern, ohne genügend Details für andere bereitzustellen, um die Ergebnisse zu replizieren.
Bereits im Jahr 2020 behauptete Google, dass eines seiner KI -Systeme, das zum Nachweis von Brusttumoren geschult war, menschliche Radiologen übertraf. Forscher aus Harvard und Stanford veröffentlichten jedoch einen Widerspruch in der Natur und argumentierten, dass das Fehlen detaillierter Methoden und Code in Googles Forschung "ihren wissenschaftlichen Wert untergrub".
Wissenschaftler haben Google auch dafür kritisiert, die Einschränkungen seiner KI -Tools in Bereichen wie Materials Engineering herunterzuspielen. Im Jahr 2023 behauptete das Unternehmen, dass rund 40 "neue Materialien" mit Hilfe seines KI -Systems Gnome synthetisiert wurden. Eine unabhängige Analyse ergab jedoch, dass keines dieser Materialien tatsächlich neu war.
"Wir werden die Stärken und Einschränkungen von Tools wie" Co-Wissenschaftler "von Google nicht wirklich verstehen, bis sie eine strenge, unabhängige Bewertung in verschiedenen wissenschaftlichen Disziplinen durchlaufen", sagte Ashique Khudabukhsh, Assistenzprofessorin für Software-Engineering am Rochester Institute of Technology, in einem Interview mit TechCrunch. "KI leistet in kontrollierten Umgebungen häufig gut, kann jedoch bei der Anwendung im Maßstab fehlschlagen."
Komplexe Prozesse
Die Entwicklung von KI -Werkzeugen zur Unterstützung der wissenschaftlichen Entdeckung ist schwierig, da es schwierig ist, alle Faktoren vorherzusagen, die einen Schraubenschlüssel in Arbeit werfen könnten. KI kann nützlich sein, um eine große Liste von Möglichkeiten zu durchsuchen, aber es ist weniger klar, ob sie mit der Art der kreativen Problemlösung umgehen kann, die zu großen Durchbrüchen führt.
"Wir haben im Laufe der Geschichte gesehen, dass einige der wichtigsten wissenschaftlichen Fortschritte, wie die Entwicklung von mRNA -Impfstoffen, von menschlicher Intuition und Ausdauer angesichts der Skepsis getrieben wurden", sagte Khudabukhsh. "KI, wie es heute aussieht, ist vielleicht nicht gut geeignet, um das zu replizieren."
Lana Sinapayen, AI-Forscherin bei Sony Informatik Laboratories in Japan, ist der Ansicht, dass Tools wie der Co-Wissenschaftler von Google auf die falschen Aspekte der wissenschaftlichen Arbeit konzentrieren.
Sinapayen sieht einen Wert in KI, der mühsame Aufgaben automatisieren kann, z. B. die Zusammenfassung neuer akademischer Literatur oder die Formatierung von Zuschüsseanträgen. Aber sie argumentiert, dass es wenig Forderung nach einem KI-Co-Wissenschaftler gibt, der Hypothesen erzeugt, eine Aufgabe, die viele Forscher intellektuell lohnend empfinden.
"Für viele Wissenschaftler, eingeschlossen, ist die Erzeugung von Hypothesen der lustigste Teil des Jobs", sagte Sinapayen gegenüber TechCrunch. "Warum sollte ich meinen Spaß an einen Computer auslagern und dann nur die harte Arbeit, um mich selbst zu tun? Im Allgemeinen scheinen viele generative KI -Forscher falsch zu verstehen, warum Menschen das tun, was sie tun, und wir haben Vorschläge für Produkte, die den Teil automatisieren, an dem wir Freude erhalten."
Beery wies darauf hin, dass der schwierigste Teil des wissenschaftlichen Prozesses häufig darin besteht, Studien zum Testen von Hypothesen zu entwerfen und zu implementieren, mit denen aktuelle KI -Systeme zu kämpfen haben. KI kann keine Experimente physisch durchführen, und es kämpft häufig mit Problemen, bei denen Daten knapp sind.
"Die meisten Wissenschaft sind nicht möglich, virtuell vollständig zu tun - es gibt häufig einen wesentlichen Bestandteil des wissenschaftlichen Prozesses, der physisch ist, z. B. das Sammeln neuer Daten und die Durchführung von Experimenten im Labor", sagte Beery. "Eine große Einschränkung von Systemen wie dem Co-Wissenschaftler von Google im Verhältnis zum tatsächlichen wissenschaftlichen Prozess, der seine Benutzerfreundlichkeit definitiv einschränkt, ist ein Zusammenhang mit dem Labor und Forscher, die das System und ihre spezifischen Forschungsziele, ihre früheren Arbeiten, ihre Fähigkeiten und die Ressourcen, auf die sie zugreifen können, mithilfe des Systems und deren spezifischen Forschungsziele einschränken."
KI -Risiken
Die technischen Einschränkungen und Risiken der KI, wie die Tendenz, falsche Informationen zu "halluzinieren" oder falsche Informationen zu generieren, machen Wissenschaftler vorsichtig, wenn sie sich auf ernsthafte Arbeit darauf verlassen.
Khudabukhsh befürchtet, dass KI -Tools die wissenschaftliche Literatur mit Lärm überfluten, anstatt den Fortschritt zu verbessern.
Es passiert schon. Eine kürzlich durchgeführte Studie ergab, dass "Junk Science" von AI-generiert ist, die Google Scholar, die kostenlose Suchmaschine von Google für wissenschaftliche Literatur, überschwemmt.
"A-generierte Forschungen, wenn sie nicht sorgfältig überwacht werden, könnten das wissenschaftliche Bereich mit niedrigeren oder sogar irreführenden Studien überfluten und den Peer-Review-Prozess überwältigen", sagte Khudabukhsh. "Ein überwältigter Peer-Review-Prozess ist in Bereichen wie Informatik bereits eine Herausforderung, auf denen Top-Konferenzen einen exponentiellen Anstieg der Einreichungen verzeichnet haben."
Selbst gut gestaltete Studien könnten durch Fehl benehmen, da Sinapayen sich schlecht benimmt. Während sie die Idee eines Tools schätzt, das bei der Literaturrecherche und -synthese helfen könnte, würde sie dem heutigen KI nicht vertrauen, um diesen Job zuverlässig zu machen.
"Das sind Dinge, die verschiedene vorhandene Tools behaupten, aber das sind keine Jobs, die ich persönlich der aktuellen KI überlassen würde", sagte Sinapayen. Sie äußerte auch Bedenken hinsichtlich der Ausbildung von KI -Systemen und der Energie, die sie verbrauchen. "Auch wenn alle ethischen Probleme gelöst wurden, ist die aktuelle KI einfach nicht zuverlässig genug, damit ich meine Arbeit auf die eine oder andere Weise auf der Output stationiere."
Verwandter Artikel
Oura, AI 기반 혈당 추적 및 식사 기록 기능 추가
Oura, 대사 건강에 대한 약속을 강화하기 위해 두 가지 흥미로운 신규 기능 추가Oura는 Glucose 추적 및 식사 기록이라는 두 가지 혁신적인 AI 기반 기능을 통해 대사 건강 분야에서 새로운 경지를 개척하고 있습니다. Glucose 추적 기능은 최근 Dexcom과의 전략적 파트너십 이후 발표된 Stelo 지속형
저렴한 증강 현실용 진정한 초점 시스템
프로젝션 기반 증강현실의 혁명prestigous Institute of Electrical and Electronics Engineers (IEEE)의 연구진들은 프로젝션 기반 증강현실 분야에서 획기적인 진보를 이루었습니다. 그들의 해결책은 전통적인 안경처럼 보이는 특수 안경으로, 여기에는 우리의 눈이 자연스럽게 깊이를
Whoop 5.0: 모두가 신경 써야 함
오늘 공개된 Whoop 5.0은 하드웨어와 소프트웨어 모두에서 큰 도약을 이루었으며, 더 넓은 사용자층을 끌어들이기 위해 설계된 듯한 새로운 구독 모델을 선보입니다. Whoop 4.0을 리뷰할 때, 높은 성능 기능과 월 30달러의 높은 구독료 때문에 주로 운동선수들에게 적합하다고 언급했습니다. Whoop은 피드백을 듣고
Kommentare (30)
0/200
JamesGreen
11. April 2025 00:00:00 GMT
I tried the AI co-scientist tool and honestly, it's not as revolutionary as Google claims. It's more like a fancy suggestion box than a real help in generating hypotheses. It's okay for brainstorming but don't expect it to do the heavy lifting. Maybe it'll get better with updates, but right now, it's just meh.
0
AnthonyJohnson
11. April 2025 00:00:00 GMT
El co-científico de IA de Google no es tan impresionante. Es útil para generar algunas ideas, pero no cambia el juego como dicen. La verdad es que esperaba más. Si mejoran la herramienta en el futuro, podría ser útil, pero por ahora, no es gran cosa.
0
EllaJohnson
11. April 2025 00:00:00 GMT
GoogleのAI共同科学者は期待外れだった。仮説を生成するのに役立つかと思ったけど、実際にはそれほどでもない。ブレインストーミングには使えるけど、もっと革新的なものを期待していた。将来のアップデートに期待したいけど、今は微妙。
0
AlbertAllen
11. April 2025 00:00:00 GMT
Testei o co-cientista de IA do Google e não achei grande coisa. É mais uma caixa de sugestões do que uma ajuda real na geração de hipóteses. Serve para brainstorming, mas não é revolucionário como dizem. Talvez melhore com atualizações, mas por enquanto, é só isso.
0
FrankRodriguez
11. April 2025 00:00:00 GMT
Tôi đã thử công cụ co-scientist AI của Google và thật sự nó không thay đổi trò chơi như họ nói. Nó giống như một hộp gợi ý hơn là một sự giúp đỡ thực sự trong việc tạo ra giả thuyết. Nó ổn cho việc brainstorm nhưng đừng mong đợi nó làm việc nặng nhọc. Có lẽ sẽ tốt hơn với các bản cập nhật, nhưng hiện tại thì chỉ ở mức bình thường.
0
FredWhite
12. April 2025 00:00:00 GMT
I tried the AI co-scientist tool and honestly, it's not as revolutionary as Google claims. It's more like a fancy hypothesis generator, but it doesn't really help with the actual research. Maybe it'll get better with updates, but right now, it's just okay. Keep your expectations in check!
0
Google hat kürzlich seinen "KI-Co-Scientist" vorgestellt, ein KI-Tool, mit dem Wissenschaftler Hypothesen und Forschungspläne erzeugen sollen. Das Unternehmen hat es als Game-Changer für die Aufdeckung neuer Kenntnisse geführt, aber Experten sind skeptisch gegenüber den Auswirkungen auf die reale Welt.
"Dieses vorläufige Tool, obwohl es interessant ist, scheint aber nicht ernsthaft eingesetzt zu werden", sagte Sara Beery, ein Computer -Vision -Forscher am MIT, in einem Interview mit TechCrunch. "Ich bin mir nicht sicher, ob diese Art von Hypothesen-Generationssystem aus der wissenschaftlichen Gemeinschaft nachgefragt wird."
Google ist nur der neueste Tech-Riese, der behauptet, dass die KI die wissenschaftliche Forschung revolutionieren wird, insbesondere in datenhörigen Bereichen wie Biomedizin. Sam Altman, CEO von OpenAI, schrieb Anfang dieses Jahres in einem Aufsatz, dass "Superintelligent" KI "die wissenschaftliche Entdeckung und Innovation massiv beschleunigen könnte". In ähnlicher Weise hat der anthropische CEO Dario Amodei vorausgesagt, dass KI dazu beitragen könnte, Heilmittel für die meisten Krebsarten zu entwickeln.
Viele Forscher sind jedoch der Ansicht, dass die heutigen KI -Tools diese ehrgeizigen Behauptungen nicht übereinstimmen. Sie argumentieren, dass Anwendungen wie Googles KI-Co-Scientist mehr um Hype als um Substanz geht und die empirischen Daten fehlen, um die Versprechen zu sichern.
Zum Beispiel rühmte sich der Blog-Beitrag von Google über den KI-Co-Scientist mit seinem Potenzial für die Umgestaltung der Arzneimittel für akute myeloische Leukämie, einer Art Blutkrebs, der das Knochenmark betrifft. Die Ergebnisse waren jedoch so vage, dass "kein legitimer Wissenschaftler sie ernst nehmen würde", so Favia Dubyk, Pathologe am Northwest Medical Center-Tucson in Arizona.
"Es könnte ein guter Ausgangspunkt für die Forscher sein, aber der Mangel an Details ist besorgniserregend und leiht mich nicht dazu, ihm zu vertrauen", sagte Dubyk gegenüber TechCrunch. "Der Mangel an Informationen macht es sehr schwer zu verstehen, ob dies wirklich hilfreich sein kann."
Dies ist nicht das erste Mal, dass Google von der wissenschaftlichen Gemeinschaft kritisiert wurde, um einen KI -Durchbruch zu fördern, ohne genügend Details für andere bereitzustellen, um die Ergebnisse zu replizieren.
Bereits im Jahr 2020 behauptete Google, dass eines seiner KI -Systeme, das zum Nachweis von Brusttumoren geschult war, menschliche Radiologen übertraf. Forscher aus Harvard und Stanford veröffentlichten jedoch einen Widerspruch in der Natur und argumentierten, dass das Fehlen detaillierter Methoden und Code in Googles Forschung "ihren wissenschaftlichen Wert untergrub".
Wissenschaftler haben Google auch dafür kritisiert, die Einschränkungen seiner KI -Tools in Bereichen wie Materials Engineering herunterzuspielen. Im Jahr 2023 behauptete das Unternehmen, dass rund 40 "neue Materialien" mit Hilfe seines KI -Systems Gnome synthetisiert wurden. Eine unabhängige Analyse ergab jedoch, dass keines dieser Materialien tatsächlich neu war.
"Wir werden die Stärken und Einschränkungen von Tools wie" Co-Wissenschaftler "von Google nicht wirklich verstehen, bis sie eine strenge, unabhängige Bewertung in verschiedenen wissenschaftlichen Disziplinen durchlaufen", sagte Ashique Khudabukhsh, Assistenzprofessorin für Software-Engineering am Rochester Institute of Technology, in einem Interview mit TechCrunch. "KI leistet in kontrollierten Umgebungen häufig gut, kann jedoch bei der Anwendung im Maßstab fehlschlagen."
Komplexe Prozesse
Die Entwicklung von KI -Werkzeugen zur Unterstützung der wissenschaftlichen Entdeckung ist schwierig, da es schwierig ist, alle Faktoren vorherzusagen, die einen Schraubenschlüssel in Arbeit werfen könnten. KI kann nützlich sein, um eine große Liste von Möglichkeiten zu durchsuchen, aber es ist weniger klar, ob sie mit der Art der kreativen Problemlösung umgehen kann, die zu großen Durchbrüchen führt.
"Wir haben im Laufe der Geschichte gesehen, dass einige der wichtigsten wissenschaftlichen Fortschritte, wie die Entwicklung von mRNA -Impfstoffen, von menschlicher Intuition und Ausdauer angesichts der Skepsis getrieben wurden", sagte Khudabukhsh. "KI, wie es heute aussieht, ist vielleicht nicht gut geeignet, um das zu replizieren."
Lana Sinapayen, AI-Forscherin bei Sony Informatik Laboratories in Japan, ist der Ansicht, dass Tools wie der Co-Wissenschaftler von Google auf die falschen Aspekte der wissenschaftlichen Arbeit konzentrieren.
Sinapayen sieht einen Wert in KI, der mühsame Aufgaben automatisieren kann, z. B. die Zusammenfassung neuer akademischer Literatur oder die Formatierung von Zuschüsseanträgen. Aber sie argumentiert, dass es wenig Forderung nach einem KI-Co-Wissenschaftler gibt, der Hypothesen erzeugt, eine Aufgabe, die viele Forscher intellektuell lohnend empfinden.
"Für viele Wissenschaftler, eingeschlossen, ist die Erzeugung von Hypothesen der lustigste Teil des Jobs", sagte Sinapayen gegenüber TechCrunch. "Warum sollte ich meinen Spaß an einen Computer auslagern und dann nur die harte Arbeit, um mich selbst zu tun? Im Allgemeinen scheinen viele generative KI -Forscher falsch zu verstehen, warum Menschen das tun, was sie tun, und wir haben Vorschläge für Produkte, die den Teil automatisieren, an dem wir Freude erhalten."
Beery wies darauf hin, dass der schwierigste Teil des wissenschaftlichen Prozesses häufig darin besteht, Studien zum Testen von Hypothesen zu entwerfen und zu implementieren, mit denen aktuelle KI -Systeme zu kämpfen haben. KI kann keine Experimente physisch durchführen, und es kämpft häufig mit Problemen, bei denen Daten knapp sind.
"Die meisten Wissenschaft sind nicht möglich, virtuell vollständig zu tun - es gibt häufig einen wesentlichen Bestandteil des wissenschaftlichen Prozesses, der physisch ist, z. B. das Sammeln neuer Daten und die Durchführung von Experimenten im Labor", sagte Beery. "Eine große Einschränkung von Systemen wie dem Co-Wissenschaftler von Google im Verhältnis zum tatsächlichen wissenschaftlichen Prozess, der seine Benutzerfreundlichkeit definitiv einschränkt, ist ein Zusammenhang mit dem Labor und Forscher, die das System und ihre spezifischen Forschungsziele, ihre früheren Arbeiten, ihre Fähigkeiten und die Ressourcen, auf die sie zugreifen können, mithilfe des Systems und deren spezifischen Forschungsziele einschränken."
KI -Risiken
Die technischen Einschränkungen und Risiken der KI, wie die Tendenz, falsche Informationen zu "halluzinieren" oder falsche Informationen zu generieren, machen Wissenschaftler vorsichtig, wenn sie sich auf ernsthafte Arbeit darauf verlassen.
Khudabukhsh befürchtet, dass KI -Tools die wissenschaftliche Literatur mit Lärm überfluten, anstatt den Fortschritt zu verbessern.
Es passiert schon. Eine kürzlich durchgeführte Studie ergab, dass "Junk Science" von AI-generiert ist, die Google Scholar, die kostenlose Suchmaschine von Google für wissenschaftliche Literatur, überschwemmt.
"A-generierte Forschungen, wenn sie nicht sorgfältig überwacht werden, könnten das wissenschaftliche Bereich mit niedrigeren oder sogar irreführenden Studien überfluten und den Peer-Review-Prozess überwältigen", sagte Khudabukhsh. "Ein überwältigter Peer-Review-Prozess ist in Bereichen wie Informatik bereits eine Herausforderung, auf denen Top-Konferenzen einen exponentiellen Anstieg der Einreichungen verzeichnet haben."
Selbst gut gestaltete Studien könnten durch Fehl benehmen, da Sinapayen sich schlecht benimmt. Während sie die Idee eines Tools schätzt, das bei der Literaturrecherche und -synthese helfen könnte, würde sie dem heutigen KI nicht vertrauen, um diesen Job zuverlässig zu machen.
"Das sind Dinge, die verschiedene vorhandene Tools behaupten, aber das sind keine Jobs, die ich persönlich der aktuellen KI überlassen würde", sagte Sinapayen. Sie äußerte auch Bedenken hinsichtlich der Ausbildung von KI -Systemen und der Energie, die sie verbrauchen. "Auch wenn alle ethischen Probleme gelöst wurden, ist die aktuelle KI einfach nicht zuverlässig genug, damit ich meine Arbeit auf die eine oder andere Weise auf der Output stationiere."




I tried the AI co-scientist tool and honestly, it's not as revolutionary as Google claims. It's more like a fancy suggestion box than a real help in generating hypotheses. It's okay for brainstorming but don't expect it to do the heavy lifting. Maybe it'll get better with updates, but right now, it's just meh.




El co-científico de IA de Google no es tan impresionante. Es útil para generar algunas ideas, pero no cambia el juego como dicen. La verdad es que esperaba más. Si mejoran la herramienta en el futuro, podría ser útil, pero por ahora, no es gran cosa.




GoogleのAI共同科学者は期待外れだった。仮説を生成するのに役立つかと思ったけど、実際にはそれほどでもない。ブレインストーミングには使えるけど、もっと革新的なものを期待していた。将来のアップデートに期待したいけど、今は微妙。




Testei o co-cientista de IA do Google e não achei grande coisa. É mais uma caixa de sugestões do que uma ajuda real na geração de hipóteses. Serve para brainstorming, mas não é revolucionário como dizem. Talvez melhore com atualizações, mas por enquanto, é só isso.




Tôi đã thử công cụ co-scientist AI của Google và thật sự nó không thay đổi trò chơi như họ nói. Nó giống như một hộp gợi ý hơn là một sự giúp đỡ thực sự trong việc tạo ra giả thuyết. Nó ổn cho việc brainstorm nhưng đừng mong đợi nó làm việc nặng nhọc. Có lẽ sẽ tốt hơn với các bản cập nhật, nhưng hiện tại thì chỉ ở mức bình thường.




I tried the AI co-scientist tool and honestly, it's not as revolutionary as Google claims. It's more like a fancy hypothesis generator, but it doesn't really help with the actual research. Maybe it'll get better with updates, but right now, it's just okay. Keep your expectations in check!












