update total_size as early as possible
[~helmut/ssdeep.git] / fuzzy.c
1 /* ssdeep
2  * Copyright (C) 2002 Andrew Tridgell <tridge@samba.org>
3  * Copyright (C) 2006 ManTech International Corporation
4  * Copyright (C) 2013 Helmut Grohne <helmut@subdivi.de>
5  *
6  * This program is free software; you can redistribute it and/or modify
7  * it under the terms of the GNU General Public License as published by
8  * the Free Software Foundation; either version 2 of the License, or
9  * (at your option) any later version.
10  *
11  * This program is distributed in the hope that it will be useful,
12  * but WITHOUT ANY WARRANTY; without even the implied warranty of
13  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
14  * GNU General Public License for more details.
15  *
16  * You should have received a copy of the GNU General Public License
17  * along with this program; if not, write to the Free Software
18  * Foundation, Inc., 51 Franklin St, Fifth Floor, Boston, MA  02110-1301  USA
19  *
20  * Earlier versions of this code were named fuzzy.c and can be found at:
21  *     http://www.samba.org/ftp/unpacked/junkcode/spamsum/
22  *     http://ssdeep.sf.net/
23  */
24
25 #include <assert.h>
26 #include <stdint.h>
27 #include <stdio.h>
28 #include <stdlib.h>
29 #include <string.h>
30 #include "fuzzy.h"
31
32 #if defined(__GNUC__) && __GNUC__ >= 3
33 #define likely(x)       __builtin_expect(!!(x), 1)
34 #define unlikely(x)     __builtin_expect(!!(x), 0)
35 #else
36 #define likely(x) x
37 #define unlikely(x) x
38 #endif
39
40 #define ROLLING_WINDOW 7
41 #define MIN_BLOCKSIZE 3
42 #define HASH_PRIME 0x01000193
43 #define HASH_INIT 0x28021967
44 #define NUM_BLOCKHASHES 31
45
46 struct roll_state {
47         unsigned char window[ROLLING_WINDOW];
48         uint32_t h1, h2, h3;
49         uint32_t n;
50 };
51
52 static void roll_init(/*@out@*/ struct roll_state *self) {
53         memset(self, 0, sizeof(struct roll_state));
54 }
55
56 /*
57  * a rolling hash, based on the Adler checksum. By using a rolling hash
58  * we can perform auto resynchronisation after inserts/deletes
59
60  * internally, h1 is the sum of the bytes in the window and h2
61  * is the sum of the bytes times the index
62
63  * h3 is a shift/xor based rolling hash, and is mostly needed to ensure that
64  * we can cope with large blocksize values
65  */
66 static void roll_hash(struct roll_state *self, unsigned char c) {
67         self->h2 -= self->h1;
68         self->h2 += ROLLING_WINDOW * (uint32_t)c;
69
70         self->h1 += (uint32_t)c;
71         self->h1 -= (uint32_t)self->window[self->n % ROLLING_WINDOW];
72
73         self->window[self->n % ROLLING_WINDOW] = c;
74         self->n++;
75
76         /* The original spamsum AND'ed this value with 0xFFFFFFFF which
77          * in theory should have no effect. This AND has been removed
78          * for performance (jk) */
79         self->h3 <<= 5;
80         self->h3 ^= c;
81 }
82
83 static uint32_t roll_sum(const struct roll_state *self) {
84         return self->h1 + self->h2 + self->h3;
85 }
86
87 /* A simple non-rolling hash, based on the FNV hash. */
88 static uint32_t sum_hash(unsigned char c, uint32_t h) {
89         return (h * HASH_PRIME) ^ c;
90 }
91
92 /* A blockhash contains a signature state for a specific (implicit) blocksize.
93  * The blocksize is given by the start_blocksize from ssdeep_context times two
94  * to the power of the position of the element in the blockhashes member of
95  * ssdeep_context (head position = 0). The h and halfh members are the FNV
96  * hashes, where halfh stops to be reset after digest is SPAMSUM_LENGTH/2 long.
97  * The halfh hash is needed be able to truncate digest for the second output
98  * hash to stay compatible with ssdeep output. */
99 struct blockhash_context {
100         uint32_t h, halfh;
101         char digest[SPAMSUM_LENGTH];
102         unsigned int dlen;
103 };
104
105 struct ssdeep_context {
106         unsigned int bhstart, bhend;
107         struct blockhash_context bh[NUM_BLOCKHASHES];
108         size_t total_size;
109         struct roll_state roll;
110 };
111
112 #define SSDEEP_BS(index) (((uint32_t)MIN_BLOCKSIZE) << (index))
113
114 static /*@only@*/ /*@null@*/ struct ssdeep_context *ssdeep_new(void) {
115         struct ssdeep_context *self;
116         if(NULL == (self = malloc(sizeof(struct ssdeep_context))))
117                 return NULL;
118         self->bhstart = 0;
119         self->bhend = 1;
120         self->bh[0].h = HASH_INIT;
121         self->bh[0].halfh = HASH_INIT;
122         self->bh[0].dlen = 0;
123         self->total_size = 0;
124         roll_init(&self->roll);
125         return self;
126 }
127
128 static void ssdeep_try_fork_blockhash(struct ssdeep_context *self) {
129         struct blockhash_context *obh, *nbh;
130         if(self->bhend >= NUM_BLOCKHASHES)
131                 return;
132         assert(self->bhend > 0);
133         obh = self->bh + (self->bhend - 1);
134         nbh = obh + 1;
135         nbh->h = obh->h;
136         nbh->halfh = obh->halfh;
137         nbh->dlen = 0;
138         ++self->bhend;
139 }
140
141 static void ssdeep_try_reduce_blockhash(struct ssdeep_context *self) {
142         assert(self->bhstart < self->bhend);
143         if(self->bhend - self->bhstart < 2)
144                 /* Need at least two working hashes. */
145                 return;
146         if((size_t)SSDEEP_BS(self->bhstart) * SPAMSUM_LENGTH >=
147                         self->total_size)
148                 /* Initial blocksize estimate would select this or a smaller
149                  * blocksize. */
150                 return;
151         if(self->bh[self->bhstart + 1].dlen < SPAMSUM_LENGTH / 2)
152                 /* Estimate adjustment would select this blocksize. */
153                 return;
154         /* At this point we are clearly no longer interested in the
155          * start_blocksize. Get rid of it. */
156         ++self->bhstart;
157 }
158
159 static const char *b64 =
160         "ABCDEFGHIJKLMNOPQRSTUVWXYZabcdefghijklmnopqrstuvwxyz0123456789+/";
161
162 static void ssdeep_engine_step(struct ssdeep_context *self, unsigned char c) {
163         size_t h;
164         unsigned int i;
165         /* At each character we update the rolling hash and the normal hashes.
166          * When the rolling hash hits a reset value then we emit a normal hash
167          * as a element of the signature and reset the normal hash. */
168         roll_hash(&self->roll, c);
169         h = roll_sum(&self->roll);
170
171         for(i = self->bhstart; i < self->bhend; ++i) {
172                 self->bh[i].h = sum_hash(c, self->bh[i].h);
173                 self->bh[i].halfh = sum_hash(c, self->bh[i].halfh);
174         }
175
176         for(i = self->bhstart; i < self->bhend; ++i) {
177                 /* With growing blocksize almost no runs fail the next test. */
178                 if(likely(h % SSDEEP_BS(i) != SSDEEP_BS(i) - 1))
179                         /* Once this condition is false for one bs, it is
180                          * automatically false for all further bs. I.e. if
181                          * h === -1 (mod 2*bs) then h === -1 (mod bs). */
182                         break;
183                 /* We have hit a reset point. We now emit hashes which are
184                  * based on all characters in the piece of the message between
185                  * the last reset point and this one */
186                 if(unlikely(0 == self->bh[i].dlen)) {
187                         /* Can only happen 30 times. */
188                         /* First step for this blocksize. Clone next. */
189                         ssdeep_try_fork_blockhash(self);
190                 }
191                 if(self->bh[i].dlen < SPAMSUM_LENGTH - 1) {
192                         /* We can have a problem with the tail overflowing. The
193                          * easiest way to cope with this is to only reset the
194                          * normal hash if we have room for more characters in
195                          * our signature. This has the effect of combining the
196                          * last few pieces of the message into a single piece
197                          * */
198                         self->bh[i].digest[self->bh[i].dlen++] =
199                                 b64[self->bh[i].h % 64];
200                         self->bh[i].h = HASH_INIT;
201                         if(self->bh[i].dlen < SPAMSUM_LENGTH / 2)
202                                 self->bh[i].halfh = HASH_INIT;
203                 } else
204                         ssdeep_try_reduce_blockhash(self);
205         }
206 }
207
208 static int ssdeep_engine(struct ssdeep_context *self,
209                 const unsigned char *buffer, size_t buffer_size) {
210         self->total_size += buffer_size;
211         for( ;buffer_size > 0; ++buffer, --buffer_size)
212                 ssdeep_engine_step(self, *buffer);
213         return 0;
214 }
215
216 static int ssdeep_digest(const struct ssdeep_context *self,
217                 /*@out@*/ char *result) {
218         unsigned int bi = self->bhstart;
219         uint32_t h = roll_sum(&self->roll);
220         int i, remain = FUZZY_MAX_RESULT - 1;
221         /* Verify that our elimination was not overeager. */
222         assert(bi == 0 || (size_t)SSDEEP_BS(bi) / 2 * SPAMSUM_LENGTH <
223                         self->total_size);
224
225         /* Initial blocksize guess. */
226         while((size_t)SSDEEP_BS(bi) * SPAMSUM_LENGTH < self->total_size) {
227                 ++bi;
228                 if(bi >= self->bhend)
229                         /* The input exceeds data types. */
230                         return -1;
231         }
232         /* Adapt blocksize guess to actual digest length. */
233         while(bi > self->bhstart && self->bh[bi].dlen < SPAMSUM_LENGTH / 2)
234                 --bi;
235         assert(!(bi > 0 && self->bh[bi].dlen < SPAMSUM_LENGTH / 2));
236
237         i = snprintf(result, (size_t)remain, "%u:", SSDEEP_BS(bi));
238         if(i <= 0)
239                 return -1;
240         assert(i < remain);
241         remain -= i;
242         result += i;
243         i = (int)self->bh[bi].dlen;
244         if(i > remain)
245                 i = remain;
246         memcpy(result, self->bh[bi].digest, (size_t)i);
247         result += i;
248         remain -= i;
249         if(remain > 0 && h != 0) {
250                 *result++ = b64[self->bh[bi].h % 64];
251                 --remain;
252         }
253         if(remain > 0) {
254                 *result++ = ':';
255                 --remain;
256         }
257         if(bi < self->bhend - 1) {
258                 ++bi;
259                 i = (int)self->bh[bi].dlen;
260                 if(i > SPAMSUM_LENGTH / 2 - 1)
261                         i = SPAMSUM_LENGTH / 2 - 1;
262                 if(i > remain)
263                         i = remain;
264                 memcpy(result, self->bh[bi].digest, (size_t)i);
265                 result += i;
266                 remain -= i;
267                 if(remain > 0 && h != 0) {
268                         *result++ = b64[self->bh[bi].halfh % 64];
269                         --remain;
270                 }
271         } else if(remain > 0 && h != 0) {
272                 assert(self->bh[bi].dlen == 0);
273                 *result++ = b64[self->bh[bi].h % 64];
274                 --remain;
275         }
276         *result = '\0';
277         return 0;
278 }
279
280 static void ssdeep_free(/*@only@*/ struct ssdeep_context *self) {
281         free(self);
282 }
283
284 int fuzzy_hash_buf(const unsigned char *buf, uint32_t buf_len,
285                 /*@out@*/ char *result) {
286         struct ssdeep_context *ctx;
287         int ret = -1;
288         if(NULL == (ctx = ssdeep_new()))
289                 return -1;
290         if(ssdeep_engine(ctx, buf, buf_len) < 0)
291                 goto out;
292         if(ssdeep_digest(ctx, result) < 0)
293                 goto out;
294         ret = 0;
295 out:
296         ssdeep_free(ctx);
297         return ret;
298 }
299
300 int fuzzy_hash_stream(FILE *handle, /*@out@*/ char *result) {
301         struct ssdeep_context *ctx;
302         unsigned char buffer[4096];
303         size_t n;
304         int ret = -1;
305         if(NULL == (ctx = ssdeep_new()))
306                 return -1;
307         for(;;) {
308                 n = fread(buffer, 1, 4096, handle);
309                 if(0 == n)
310                         break;
311                 if(ssdeep_engine(ctx, buffer, n) < 0)
312                         goto out;
313         }
314         if(ferror(handle) != 0)
315                 goto out;
316         if(ssdeep_digest(ctx, result) < 0)
317                 goto out;
318         ret = 0;
319 out:
320         ssdeep_free(ctx);
321         return ret;
322 }
323
324 #ifdef S_SPLINT_S
325 typedef size_t off_t;
326 int fseeko(FILE *, off_t, int);
327 off_t ftello(FILE *);
328 #endif
329
330 int fuzzy_hash_file(FILE *handle, /*@out@*/ char *result) {
331         off_t fpos;
332         int status;
333         fpos = ftello(handle);
334         if(fseek(handle, 0, SEEK_SET) < 0)
335                 return -1;
336         status = fuzzy_hash_stream(handle, result);
337         if(status == 0)
338                 if(fseeko(handle, fpos, SEEK_SET) < 0)
339                         return -1;
340         return status;
341 }
342
343 int fuzzy_hash_filename(const char *filename, /*@out@*/ char *result) {
344         int status;
345         FILE *handle = fopen(filename, "rb");
346         if(NULL == handle)
347                 return -1;
348         status = fuzzy_hash_stream(handle, result);
349         /* We cannot do anything about an fclose failure. */
350         (void)fclose(handle);
351         return status;
352 }
353