Bishop Fox ने AIMap को open-source के तौर पर release किया — AI infrastructure के लिए एक Nmap-style scanner जो AI surface पर discovery, fingerprinting, risk scoring, vulnerability testing और visualization करता है। coverage में MCP servers, Ollama, vLLM, LiteLLM, LocalAI, LangServe, LangChain, Open WebUI, LibreChat, Gradio, Streamlit, ComfyUI, Stable Diffusion, Hugging Face TGI और generic inference APIs शामिल हैं। वो number जो launch coverage में land करता है और शायद builders को अपने stacks audit करवाने को मजबूर कर दे: public internet पर reachable 175,000+ Ollama instances, **लगभग 91% configured authentication के बिना**। ये Ollama में vulnerability नहीं है — Ollama वही कर रहा है जो आपने कहा — operators local-LLM servers deploy कर रहे हैं ये पहचाने बिना कि वो उन्हें internet पर ship कर रहे हैं।

architecture direct है: Shodan के through 32 AI-specific signatures के साथ Discovery, Nuclei templates और HTTP probes के through Fingerprinting (Ollama की root पर «Ollama is running» string या vLLM का `/version` endpoint जैसे positive identifiers), 0-10 risk scoring, protocol-specific attack suites (prompt injection, tool abuse, model extraction), और 3D globe view के साथ Shodan-style visualization। exposed-vs-accessible distinction operationally important detail है: HTTP 200 का मतलब no auth (कोई भी model hit कर सकता है), 401/403 का मतलब auth configured है, और WWW-Authenticate headers आपको scheme बताते हैं (Bearer, Basic, API key)। self-hosted LLM infrastructure चलाने वाले builders के लिए, practical asset inventory लगभग दस मिनट लेती है — AIMap को अपने ASN की तरफ़ point करो, क्या exposed है और कैसे protected है उसकी list मिलती है। legal compliance burden (CFAA, GDPR) उन operators पर है जो tool को अपनी infrastructure से परे किसी भी चीज़ के लिए use करते हैं; Bishop Fox इसे tool के तौर पर publish करता है, service के तौर पर नहीं।

ecosystem reading पहले के MCP-server security और Claude Code Auto Mode architecture pieces के साथ naturally pair होती है। तीनों में pattern: AI infrastructure उससे तेज़ deploy हो रहा है जितना deployment hygiene catch up कर सके। authentication के बिना MCP servers, public internet पर Ollama instances, उन्हें ढूँढने वाले किसी को भी exposed vLLM endpoints — attack surface wide और visible है। AIMap problem introduce नहीं करता; उसे measurable बनाता है। 91% Ollama-no-auth number striking है पर «AI infra personal use के लिए deploy हुई, फिर public IP पर भुला दी गई» के broader pattern के साथ consistent है। AI-builder companies की security teams के लिए, ये asset inventory question है जिसका अब तक tool नहीं था। home server पर Ollama चलाने वाले solo builders के लिए, relevant question ये है कि क्या आप वाकई port 11434 को internet पर expose करना चाहते थे, और जवाब लगभग हमेशा नहीं है।

practical move: अगर आप listed AI infras में से कोई production में या personal use के लिए चला रहे हो, AIMap या equivalent के साथ अपना perimeter scan करो। default Ollama configuration कुछ setups में 0.0.0.0 पर bind करती है — listening interface check करो, फिर check करो कि firewall actually external traffic block करता है या नहीं। MCP server operators के लिए (attack-surface पर recent story ने दिखाया कि agents prompt-injected tool outputs के through exploitable हैं), auth + network-isolation question अब tool-discoverable है। internal infrastructure पर AI capabilities deploy करने वाले organizations के लिए, अपने ही IPs के against scanner कम से कम quarterly चलाओ — deployment-without-auth pattern security awareness के propagate होने से तेज़ reproduce होता है। broader signal: AI security tooling बाक़ी security industry के साथ catch up कर रही है, और «हमने एक LLM deploy किया» और «हमने एक LLM securely deploy किया» के बीच का gap ज़्यादातर builders के realize करने से ज़्यादा wide रहा है।