How to import external spidering output to Burpsuite or ZAP

Normally, BurpSuite or ZAP is the main tool of testing during bugbounty or security testing. It’s good to navigate directly with the spider function in there, but sometimes you need help from an external crawler. (especially when using a waybackmachine) 평소에 버그바운티나 테스팅 시 BurpSuite에서 주로 테스팅을 진행합니다. Burp에서의 spider 기능과 직접 돌아다니는게 좋긴하지만, 때론 외부 크롤러의 도움이 필요할때가 있습니다. (특히 waybackmachine을 사용할땐요)

Today I’m going to share a tip that I use often. 오늘은 제가 자주 사용하는 팁을 하나 공유하려고 합니다.

TL;DR

~/go/bin/gospider -s {YOUR-TARGET-URL} -a -o out ; cat out/* | grep "url\|form" | cut -d " " -f5 | sort -u > hosts ; proxychains4 ~/go/bin/meg -d 1000 -v /

Prepared beforehand

Install tools

go get -u github.com/tomnomnom/meg
go get -u github.com/jaeles-project/gospider

# macos
brew insatll proxychains4

# linux
apt-get install proxychains4

Set proxychain4

vim /usr/local/etc/proxychains.conf   #your config file
...
http  127.0.0.1 8080     
# your burp or zap port

Start!

Crawling and get other source(waybackurl, etc) lightly through the gospider. gospider를 통해 가볍게 크롤링 및 waybackurl 등을 가져옵니다.

~/go/bin/gospider -s https://store.line.me -a -o out

Find only the result of the form, url from gospider because there are many normal url patterns. and remove duplicated. gospider의 결과 중 form, url이 정상적인 url 패턴이 많기 때문에 해당 내용만 중복 제거하여 뽑아냅니다.

cat out/* | grep "url\|form" | cut -d " " -f5 | sort -u

# copy output and paste 'hosts' file

(위 출력 결과를 hosts 파일로 저장합시다, meg를 위해!)

Insert data into burpsuite using proxychain and meg. proxychain과 meg를 이용해 burpsuite로 데이터를 넣어줍니다.

proxychains4 ~/go/bin/meg -d 1000 -v /

Video