turn linked list of blockhashes into an array
[~helmut/ssdeep.git] / fuzzy.c
1 /* ssdeep
2  * Copyright (C) 2002 Andrew Tridgell <tridge@samba.org>
3  * Copyright (C) 2006 ManTech International Corporation
4  * Copyright (C) 2013 Helmut Grohne <helmut@subdivi.de>
5  *
6  * This program is free software; you can redistribute it and/or modify
7  * it under the terms of the GNU General Public License as published by
8  * the Free Software Foundation; either version 2 of the License, or
9  * (at your option) any later version.
10  *
11  * This program is distributed in the hope that it will be useful,
12  * but WITHOUT ANY WARRANTY; without even the implied warranty of
13  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
14  * GNU General Public License for more details.
15  *
16  * You should have received a copy of the GNU General Public License
17  * along with this program; if not, write to the Free Software
18  * Foundation, Inc., 51 Franklin St, Fifth Floor, Boston, MA  02110-1301  USA
19  *
20  * Earlier versions of this code were named fuzzy.c and can be found at:
21  *     http://www.samba.org/ftp/unpacked/junkcode/spamsum/
22  *     http://ssdeep.sf.net/
23  */
24
25 #include <assert.h>
26 #include <stdint.h>
27 #include <stdio.h>
28 #include <stdlib.h>
29 #include <string.h>
30 #include "fuzzy.h"
31
32 #if defined(__GNUC__) && __GNUC__ >= 3
33 #define likely(x)       __builtin_expect(!!(x), 1)
34 #define unlikely(x)     __builtin_expect(!!(x), 0)
35 #else
36 #define likely(x) x
37 #define unlikely(x) x
38 #endif
39
40 #define ROLLING_WINDOW 7
41 #define MIN_BLOCKSIZE 3
42 #define HASH_PRIME 0x01000193
43 #define HASH_INIT 0x28021967
44 #define NUM_BLOCKHASHES 31
45
46 struct roll_state {
47         unsigned char window[ROLLING_WINDOW];
48         uint32_t h1, h2, h3;
49         uint32_t n;
50 };
51
52 static void roll_init(/*@out@*/ struct roll_state *self) {
53         memset(self, 0, sizeof(struct roll_state));
54 }
55
56 /*
57  * a rolling hash, based on the Adler checksum. By using a rolling hash
58  * we can perform auto resynchronisation after inserts/deletes
59
60  * internally, h1 is the sum of the bytes in the window and h2
61  * is the sum of the bytes times the index
62
63  * h3 is a shift/xor based rolling hash, and is mostly needed to ensure that
64  * we can cope with large blocksize values
65  */
66 static void roll_hash(struct roll_state *self, unsigned char c) {
67         self->h2 -= self->h1;
68         self->h2 += ROLLING_WINDOW * (uint32_t)c;
69
70         self->h1 += (uint32_t)c;
71         self->h1 -= (uint32_t)self->window[self->n % ROLLING_WINDOW];
72
73         self->window[self->n % ROLLING_WINDOW] = c;
74         self->n++;
75
76         /* The original spamsum AND'ed this value with 0xFFFFFFFF which
77          * in theory should have no effect. This AND has been removed
78          * for performance (jk) */
79         self->h3 <<= 5;
80         self->h3 ^= c;
81 }
82
83 static uint32_t roll_sum(const struct roll_state *self) {
84         return self->h1 + self->h2 + self->h3;
85 }
86
87 /* A simple non-rolling hash, based on the FNV hash. */
88 static uint32_t sum_hash(unsigned char c, uint32_t h) {
89         return (h * HASH_PRIME) ^ c;
90 }
91
92 /* A blockhash contains a signature state for a specific (implicit) blocksize.
93  * The blocksize is given by the start_blocksize from ssdeep_context times two
94  * to the power of the position of the element in the blockhashes member of
95  * ssdeep_context (head position = 0). The h and halfh members are the FNV
96  * hashes, where halfh stops to be reset after digest is SPAMSUM_LENGTH/2 long.
97  * The halfh hash is needed be able to truncate digest for the second output
98  * hash to stay compatible with ssdeep output. */
99 struct blockhash_context {
100         uint32_t h, halfh;
101         char digest[SPAMSUM_LENGTH];
102         unsigned int dlen;
103 };
104
105 struct ssdeep_context {
106         unsigned int bhstart, bhend;
107         struct blockhash_context bh[NUM_BLOCKHASHES];
108         size_t total_size;
109         struct roll_state roll;
110 };
111
112 #define SSDEEP_BS(index) (((uint32_t)MIN_BLOCKSIZE) << (index))
113
114 static /*@only@*/ /*@null@*/ struct ssdeep_context *ssdeep_new(void) {
115         struct ssdeep_context *self;
116         if(NULL == (self = malloc(sizeof(struct ssdeep_context))))
117                 return NULL;
118         self->bhstart = 0;
119         self->bhend = 1;
120         self->bh[0].h = HASH_INIT;
121         self->bh[0].halfh = HASH_INIT;
122         self->bh[0].dlen = 0;
123         self->total_size = 0;
124         roll_init(&self->roll);
125         return self;
126 }
127
128 static void ssdeep_try_fork_blockhash(struct ssdeep_context *self) {
129         struct blockhash_context *obh, *nbh;
130         if(self->bhend >= NUM_BLOCKHASHES)
131                 return;
132         assert(self->bhend > 0);
133         obh = self->bh + (self->bhend - 1);
134         nbh = obh + 1;
135         nbh->h = obh->h;
136         nbh->halfh = obh->halfh;
137         nbh->dlen = 0;
138         ++self->bhend;
139 }
140
141 static void ssdeep_try_reduce_blockhash(struct ssdeep_context *self) {
142         assert(self->bhstart < self->bhend);
143         if(self->bhend - self->bhstart < 2)
144                 /* Need at least two working hashes. */
145                 return;
146         if((size_t)SSDEEP_BS(self->bhstart) * SPAMSUM_LENGTH >=
147                         self->total_size)
148                 /* Initial blocksize estimate would select this or a smaller
149                  * blocksize. */
150                 return;
151         if(self->bh[self->bhstart + 1].dlen < SPAMSUM_LENGTH / 2)
152                 /* Estimate adjustment would select this blocksize. */
153                 return;
154         /* At this point we are clearly no longer interested in the
155          * start_blocksize. Get rid of it. */
156         ++self->bhstart;
157 }
158
159 static const char *b64 =
160         "ABCDEFGHIJKLMNOPQRSTUVWXYZabcdefghijklmnopqrstuvwxyz0123456789+/";
161
162 static int ssdeep_engine_step(struct ssdeep_context *self, unsigned char c) {
163         size_t h;
164         unsigned int i;
165         /* At each character we update the rolling hash and the normal hashes.
166          * When the rolling hash hits a reset value then we emit a normal hash
167          * as a element of the signature and reset the normal hash. */
168         roll_hash(&self->roll, c);
169         h = roll_sum(&self->roll);
170
171         for(i = self->bhstart; i < self->bhend; ++i) {
172                 self->bh[i].h = sum_hash(c, self->bh[i].h);
173                 self->bh[i].halfh = sum_hash(c, self->bh[i].halfh);
174         }
175
176         for(i = self->bhstart; i < self->bhend; ++i) {
177                 /* With growing blocksize almost no runs fail the next test. */
178                 if(likely(h % SSDEEP_BS(i) != SSDEEP_BS(i) - 1))
179                         /* Once this condition is false for one bs, it is
180                          * automatically false for all further bs. I.e. if
181                          * h === -1 (mod 2*bs) then h === -1 (mod bs). */
182                         break;
183                 /* We have hit a reset point. We now emit hashes which are
184                  * based on all characters in the piece of the message between
185                  * the last reset point and this one */
186                 if(unlikely(0 == self->bh[i].dlen)) {
187                         /* Can only happen 30 times. */
188                         /* First step for this blocksize. Clone next. */
189                         ssdeep_try_fork_blockhash(self);
190                 }
191                 if(self->bh[i].dlen < SPAMSUM_LENGTH - 1) {
192                         /* We can have a problem with the tail overflowing. The
193                          * easiest way to cope with this is to only reset the
194                          * normal hash if we have room for more characters in
195                          * our signature. This has the effect of combining the
196                          * last few pieces of the message into a single piece
197                          * */
198                         self->bh[i].digest[self->bh[i].dlen++] =
199                                 b64[self->bh[i].h % 64];
200                         self->bh[i].h = HASH_INIT;
201                         if(self->bh[i].dlen < SPAMSUM_LENGTH / 2)
202                                 self->bh[i].halfh = HASH_INIT;
203                 } else
204                         ssdeep_try_reduce_blockhash(self);
205         }
206         ++self->total_size;
207         return 0;
208 }
209
210 static int ssdeep_engine(struct ssdeep_context *self,
211                 const unsigned char *buffer, size_t buffer_size) {
212         for( ;buffer_size > 0; ++buffer, --buffer_size)
213                 if(ssdeep_engine_step(self, *buffer) < 0)
214                         return -1;
215         return 0;
216 }
217
218 static int ssdeep_digest(const struct ssdeep_context *self,
219                 /*@out@*/ char *result) {
220         unsigned int bi = self->bhstart;
221         uint32_t h = roll_sum(&self->roll);
222         int i, remain = FUZZY_MAX_RESULT - 1;
223         /* Verify that our elimination was not overeager. */
224         assert(bi == 0 || (size_t)SSDEEP_BS(bi) / 2 * SPAMSUM_LENGTH <
225                         self->total_size);
226
227         /* Initial blocksize guess. */
228         while((size_t)SSDEEP_BS(bi) * SPAMSUM_LENGTH < self->total_size) {
229                 ++bi;
230                 if(bi >= self->bhend)
231                         /* The input exceeds data types. */
232                         return -1;
233         }
234         /* Adapt blocksize guess to actual digest length. */
235         while(bi > self->bhstart && self->bh[bi].dlen < SPAMSUM_LENGTH / 2)
236                 --bi;
237         assert(!(bi > 0 && self->bh[bi].dlen < SPAMSUM_LENGTH / 2));
238
239         i = snprintf(result, (size_t)remain, "%u:", SSDEEP_BS(bi));
240         if(i <= 0)
241                 return -1;
242         assert(i < remain);
243         remain -= i;
244         result += i;
245         i = (int)self->bh[bi].dlen;
246         if(i > remain)
247                 i = remain;
248         memcpy(result, self->bh[bi].digest, (size_t)i);
249         result += i;
250         remain -= i;
251         if(remain > 0 && h != 0) {
252                 *result++ = b64[self->bh[bi].h % 64];
253                 --remain;
254         }
255         if(remain > 0) {
256                 *result++ = ':';
257                 --remain;
258         }
259         if(bi < self->bhend - 1) {
260                 ++bi;
261                 i = (int)self->bh[bi].dlen;
262                 if(i > SPAMSUM_LENGTH / 2 - 1)
263                         i = SPAMSUM_LENGTH / 2 - 1;
264                 if(i > remain)
265                         i = remain;
266                 memcpy(result, self->bh[bi].digest, (size_t)i);
267                 result += i;
268                 remain -= i;
269                 if(remain > 0 && h != 0) {
270                         *result++ = b64[self->bh[bi].halfh % 64];
271                         --remain;
272                 }
273         } else if(remain > 0 && h != 0) {
274                 assert(self->bh[bi].dlen == 0);
275                 *result++ = b64[self->bh[bi].h % 64];
276                 --remain;
277         }
278         *result = '\0';
279         return 0;
280 }
281
282 static void ssdeep_free(/*@only@*/ struct ssdeep_context *self) {
283         free(self);
284 }
285
286 int fuzzy_hash_buf(const unsigned char *buf, uint32_t buf_len,
287                 /*@out@*/ char *result) {
288         struct ssdeep_context *ctx;
289         int ret = -1;
290         if(NULL == (ctx = ssdeep_new()))
291                 return -1;
292         if(ssdeep_engine(ctx, buf, buf_len) < 0)
293                 goto out;
294         if(ssdeep_digest(ctx, result) < 0)
295                 goto out;
296         ret = 0;
297 out:
298         ssdeep_free(ctx);
299         return ret;
300 }
301
302 int fuzzy_hash_stream(FILE *handle, /*@out@*/ char *result) {
303         struct ssdeep_context *ctx;
304         unsigned char buffer[4096];
305         size_t n;
306         int ret = -1;
307         if(NULL == (ctx = ssdeep_new()))
308                 return -1;
309         for(;;) {
310                 n = fread(buffer, 1, 4096, handle);
311                 if(0 == n)
312                         break;
313                 if(ssdeep_engine(ctx, buffer, n) < 0)
314                         goto out;
315         }
316         if(ferror(handle) != 0)
317                 goto out;
318         if(ssdeep_digest(ctx, result) < 0)
319                 goto out;
320         ret = 0;
321 out:
322         ssdeep_free(ctx);
323         return ret;
324 }
325
326 #ifdef S_SPLINT_S
327 typedef size_t off_t;
328 int fseeko(FILE *, off_t, int);
329 off_t ftello(FILE *);
330 #endif
331
332 int fuzzy_hash_file(FILE *handle, /*@out@*/ char *result) {
333         off_t fpos;
334         int status;
335         fpos = ftello(handle);
336         if(fseek(handle, 0, SEEK_SET) < 0)
337                 return -1;
338         status = fuzzy_hash_stream(handle, result);
339         if(status == 0)
340                 if(fseeko(handle, fpos, SEEK_SET) < 0)
341                         return -1;
342         return status;
343 }
344
345 int fuzzy_hash_filename(const char *filename, /*@out@*/ char *result) {
346         int status;
347         FILE *handle = fopen(filename, "rb");
348         if(NULL == handle)
349                 return -1;
350         status = fuzzy_hash_stream(handle, result);
351         /* We cannot do anything about an fclose failure. */
352         (void)fclose(handle);
353         return status;
354 }
355