mirror of
https://github.com/webtorrent/bittorrent-tracker.git
synced 2025-01-18 20:21:36 +00:00
add single scrape, multi scrape, all scrape tests
This commit is contained in:
parent
ec67f42b14
commit
539f1bf65d
168
test/scrape.js
Normal file
168
test/scrape.js
Normal file
@ -0,0 +1,168 @@
|
||||
var bencode = require('bencode')
|
||||
var Client = require('../')
|
||||
var common = require('../lib/common')
|
||||
var concat = require('concat-stream')
|
||||
var fs = require('fs')
|
||||
var http = require('http')
|
||||
var parseTorrent = require('parse-torrent')
|
||||
var portfinder = require('portfinder')
|
||||
var querystring = require('querystring')
|
||||
var Server = require('../').Server
|
||||
var test = require('tape')
|
||||
|
||||
var infoHash1 = 'aaa67059ed6bd08362da625b3ae77f6f4a075aaa'
|
||||
var encodedInfoHash1 = common.bytewiseEncodeURIComponent(
|
||||
new Buffer(infoHash1, 'hex')
|
||||
)
|
||||
var infoHash2 = 'bbb67059ed6bd08362da625b3ae77f6f4a075bbb'
|
||||
var encodedInfoHash2 = common.bytewiseEncodeURIComponent(
|
||||
new Buffer(infoHash2, 'hex')
|
||||
)
|
||||
|
||||
var bitlove = fs.readFileSync(__dirname + '/torrents/bitlove-intro.torrent')
|
||||
var parsedBitlove = parseTorrent(bitlove)
|
||||
var encodedBitlove = common.bytewiseEncodeURIComponent(
|
||||
new Buffer(parsedBitlove.infoHash, 'hex')
|
||||
)
|
||||
var peerId = new Buffer('01234567890123456789')
|
||||
|
||||
test('server: single info_hash scrape', function (t) {
|
||||
var server = new Server({ udp: false })
|
||||
server.on('error', function (err) {
|
||||
t.error(err)
|
||||
})
|
||||
server.on('warning', function (err) {
|
||||
t.error(err)
|
||||
})
|
||||
|
||||
portfinder.getPort(function (err, port) {
|
||||
t.error(err)
|
||||
server.listen(port)
|
||||
var scrapeUrl = 'http://127.0.0.1:' + port + '/scrape'
|
||||
|
||||
server.once('listening', function () {
|
||||
var url = scrapeUrl + '?' + querystring.stringify({
|
||||
info_hash: encodedInfoHash1
|
||||
})
|
||||
http.get(url, function (res) {
|
||||
t.equal(res.statusCode, 200)
|
||||
res.pipe(concat(function (data) {
|
||||
data = bencode.decode(data)
|
||||
t.ok(data.files)
|
||||
t.equal(Object.keys(data.files).length, 1)
|
||||
t.ok(data.files[encodedInfoHash1])
|
||||
t.equal(typeof data.files[encodedInfoHash1].complete, 'number')
|
||||
t.equal(typeof data.files[encodedInfoHash1].incomplete, 'number')
|
||||
t.equal(typeof data.files[encodedInfoHash1].downloaded, 'number')
|
||||
|
||||
server.close(function () {
|
||||
t.end()
|
||||
})
|
||||
}))
|
||||
}).on('error', function (e) {
|
||||
t.error(err)
|
||||
})
|
||||
})
|
||||
})
|
||||
})
|
||||
|
||||
test('server: multiple info_hash scrape', function (t) {
|
||||
var server = new Server({ udp: false })
|
||||
server.on('error', function (err) {
|
||||
t.error(err)
|
||||
})
|
||||
server.on('warning', function (err) {
|
||||
t.error(err)
|
||||
})
|
||||
|
||||
portfinder.getPort(function (err, port) {
|
||||
t.error(err)
|
||||
server.listen(port)
|
||||
var scrapeUrl = 'http://127.0.0.1:' + port + '/scrape'
|
||||
|
||||
server.once('listening', function () {
|
||||
var url = scrapeUrl + '?' + querystring.stringify({
|
||||
info_hash: [ encodedInfoHash1, encodedInfoHash2 ]
|
||||
})
|
||||
http.get(url, function (res) {
|
||||
t.equal(res.statusCode, 200)
|
||||
res.pipe(concat(function (data) {
|
||||
data = bencode.decode(data)
|
||||
t.ok(data.files)
|
||||
t.equal(Object.keys(data.files).length, 2)
|
||||
|
||||
t.ok(data.files[encodedInfoHash1])
|
||||
t.equal(typeof data.files[encodedInfoHash1].complete, 'number')
|
||||
t.equal(typeof data.files[encodedInfoHash1].incomplete, 'number')
|
||||
t.equal(typeof data.files[encodedInfoHash1].downloaded, 'number')
|
||||
|
||||
t.ok(data.files[encodedInfoHash2])
|
||||
t.equal(typeof data.files[encodedInfoHash2].complete, 'number')
|
||||
t.equal(typeof data.files[encodedInfoHash2].incomplete, 'number')
|
||||
t.equal(typeof data.files[encodedInfoHash2].downloaded, 'number')
|
||||
|
||||
server.close(function () {
|
||||
t.end()
|
||||
})
|
||||
}))
|
||||
}).on('error', function (e) {
|
||||
t.error(err)
|
||||
})
|
||||
})
|
||||
})
|
||||
})
|
||||
|
||||
test('server: all info_hash scrape', function (t) {
|
||||
var server = new Server({ udp: false })
|
||||
server.on('error', function (err) {
|
||||
t.error(err)
|
||||
})
|
||||
server.on('warning', function (err) {
|
||||
t.error(err)
|
||||
})
|
||||
|
||||
portfinder.getPort(function (err, port) {
|
||||
t.error(err)
|
||||
server.listen(port)
|
||||
var announceUrl = 'http://127.0.0.1:' + port + '/announce'
|
||||
var scrapeUrl = 'http://127.0.0.1:' + port + '/scrape'
|
||||
|
||||
parsedBitlove.announce = [ announceUrl ]
|
||||
|
||||
server.once('listening', function () {
|
||||
|
||||
// announce a torrent to the tracker
|
||||
var client = new Client(peerId, port, parsedBitlove)
|
||||
client.on('error', function (err) {
|
||||
t.error(err)
|
||||
})
|
||||
client.start()
|
||||
|
||||
server.once('start', function (data) {
|
||||
|
||||
// now do a scrape of everything by omitting the info_hash param
|
||||
http.get(scrapeUrl, function (res) {
|
||||
|
||||
t.equal(res.statusCode, 200)
|
||||
res.pipe(concat(function (data) {
|
||||
data = bencode.decode(data)
|
||||
t.ok(data.files)
|
||||
t.equal(Object.keys(data.files).length, 1)
|
||||
|
||||
t.ok(data.files[encodedBitlove])
|
||||
t.equal(typeof data.files[encodedBitlove].complete, 'number')
|
||||
t.equal(typeof data.files[encodedBitlove].incomplete, 'number')
|
||||
t.equal(typeof data.files[encodedBitlove].downloaded, 'number')
|
||||
|
||||
client.stop()
|
||||
server.close(function () {
|
||||
t.end()
|
||||
})
|
||||
}))
|
||||
}).on('error', function (e) {
|
||||
t.error(err)
|
||||
})
|
||||
})
|
||||
})
|
||||
})
|
||||
})
|
Loading…
Reference in New Issue
Block a user