opção
Lar
Notícias
Ai Crawlers Surge Wikimedia Commons Bandwidth Demand em 50%

Ai Crawlers Surge Wikimedia Commons Bandwidth Demand em 50%

17 de Abril de 2025
62

Ai Crawlers Surge Wikimedia Commons Bandwidth Demand em 50%

A Wikimedia Foundation, o corpo-mãe por trás da Wikipedia e várias outras plataformas de conhecimento de origem da multidão, anunciou na quarta-feira um aumento impressionante de 50% no uso de largura de banda para downloads multimídia do Wikimedia Commons desde que o Sumort Automating, mas o Sumort Automating, mas o Sumort Automoused, mas, como um dos autores, não é o que há de um pós-suportes, mas é o que é um dos mansos, mas é o que há de um pós-suportes, mas é o que é um dos dados de um súmito.

"Nossa infraestrutura foi projetada para lidar com picos repentinos no tráfego de seres humanos durante os principais eventos, mas o volume de tráfego de bots raspador é incomparável e representa riscos e custos crescentes", explica o post.

O Wikimedia Commons serve como um hub gratuitamente acessível para imagens, vídeos e arquivos de áudio, todos disponíveis em licenças abertas ou em domínio público.

Definindo mais profundamente, a Wikimedia revelou que 65% do tráfego mais intensivo de recursos-medido pelo tipo de conteúdo consumido-compensações de bots. No entanto, esses bots representam apenas 35% das visualizações gerais de página. A discrepância, de acordo com a Wikimedia, decorre de com que frequência o conteúdo acessado é armazenado em cache mais próximo dos usuários, enquanto conteúdo menos popular, que os bots costumam ter como alvo, são armazenados no "data center principal" mais caro.

"Enquanto os leitores humanos tendem a se concentrar em tópicos específicos, muitas vezes semelhantes, os rastreadores tendem a 'ler a massa' um número maior de páginas e a visitar as menos populares também", observou Wikimedia. "Isso resulta na encaminhamento dessas solicitações ao principal datacenter, o que aumenta significativamente nossos custos de consumo de recursos".

Como resultado, a equipe de confiabilidade do site da Wikimedia Foundation está dedicando tempo e recursos substanciais ao bloqueio desses rastreadores para evitar interrupções nos usuários do cotidiano. Isso nem sequer toca nos custos de nuvem crescente com os quais a fundação está disputando.

Esse cenário faz parte de uma tendência mais ampla que está colocando em risco a internet aberta. No mês passado, o engenheiro de software e o advogado de código aberto Drew Devault lamentou que os rastreadores de AI estão ignorando flagrantemente os arquivos "robots.txt" destinados a impedir o tráfego automatizado. Da mesma forma, Gergely Orosz, conhecido como "engenheiro pragmático", recentemente expressou sua frustração sobre como os raspadores de IA de empresas como a Meta aumentaram as demandas de largura de banda por seus projetos.

Embora as infra-estruturas de código aberto sejam particularmente vulneráveis, os desenvolvedores estão respondendo com ingenuidade e determinação. A TechCrunch destacou na semana passada que algumas empresas de tecnologia estão intensificando. Por exemplo, o CloudFlare introduziu o AI Labyrinth, projetado para desacelerar os rastreadores com conteúdo gerado pela IA.

No entanto, continua sendo um jogo constante de gato e mouse, que pode levar muitos editores a se retirarem atrás de logins e paywalls, prejudicando a natureza aberta da web em que todos confiamos.

Artigo relacionado
Criação de Quadrinhos com IA: Guia para Iniciantes Criação de Quadrinhos com IA: Guia para Iniciantes A IA torna a criação de quadrinhos acessível e divertida. Este guia oferece um processo claro, passo a passo, para criar quadrinhos únicos para projetos pessoais, presentes ou uso comercial. Com as fe
Ren Zhengfei: O futuro da IA na China e o jogo de longo prazo da Huawei Ren Zhengfei: O futuro da IA na China e o jogo de longo prazo da Huawei json收起自动换行复制{"content": ",[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],[object Object
Revolução da IA Agentiva Transforma Investimentos para Superar Wall Street em 2025 Revolução da IA Agentiva Transforma Investimentos para Superar Wall Street em 2025 Por anos, firmas de Wall Street dominaram o mercado de ações, utilizando recursos superiores para moldar lucros. Agora, tecnologia de ponta, especialmente Inteligência Artificial, está equilibrando a
Comentários (10)
0/200
ThomasJones
ThomasJones 17 de Abril de 2025 à0 00:00:00 WEST

Wikimedia Commons bandwidth usage up by 50%? 😲 That's insane! I guess all those AI crawlers are hungry for our data. It's cool that Wikimedia is keeping us posted, but man, this is gonna slow things down. Hope they find a way to handle it without messing up our experience! 🤞

RaymondGreen
RaymondGreen 18 de Abril de 2025 à0 00:00:00 WEST

ウィキメディア・コモンズの帯域使用量が50%増えたって?😲 信じられない!AIクローラーがデータを欲しがってるんだね。ウィキメディアが情報を共有してくれるのはいいけど、これで遅くなるのは嫌だな。ユーザー体験を壊さずに対応できるといいね!🤞

RogerSanchez
RogerSanchez 17 de Abril de 2025 à0 00:00:00 WEST

위키미디어 커먼즈의 대역폭 사용량이 50% 증가했다고? 😲 믿기지 않아! AI 크롤러들이 우리 데이터를 원하는 거겠지. 위키미디어가 정보를 공유해주는 건 좋지만, 이 때문에 느려지면 곤란해. 사용자 경험을 망치지 않고 해결할 방법을 찾았으면 좋겠어! 🤞

CarlTaylor
CarlTaylor 17 de Abril de 2025 à0 00:00:00 WEST

O uso de banda do Wikimedia Commons aumentou 50%? 😲 Isso é loucura! Acho que esses rastreadores de IA estão famintos pelos nossos dados. É legal que o Wikimedia nos mantenha informados, mas cara, isso vai atrasar tudo. Espero que eles encontrem uma maneira de lidar com isso sem estragar nossa experiência! 🤞

AlbertLee
AlbertLee 18 de Abril de 2025 à0 00:00:00 WEST

¿El uso de ancho de banda de Wikimedia Commons aumentó un 50%? 😲 ¡Eso es una locura! Supongo que esos rastreadores de IA están hambrientos de nuestros datos. Es genial que Wikimedia nos mantenga informados, pero hombre, esto va a ralentizar todo. Espero que encuentren una manera de manejarlo sin arruinar nuestra experiencia. 🤞

ThomasHernández
ThomasHernández 17 de Abril de 2025 à0 00:00:00 WEST

The surge in bandwidth demand by AI crawlers on Wikimedia Commons is insane! It's cool to see AI being used so extensively, but it's also a bit worrying. Hope they find a way to manage it without affecting the user experience too much. 🤔

De volta ao topo
OR