tokenizer.odin 8.3 KB

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134135136137138139140141142143144145146147148149150151152153154155156157158159160161162163164165166167168169170171172173174175176177178179180181182183184185186187188189190191192193194195196197198199200201202203204205206207208209210211212213214215216217218219220221222223224225226227228229230231232233234235236237238239240241242243244245246247248249250251252253254255256257258259260261262263264265266267268269270271272273274275276277278279280281282283284285286287288289290291292293294295296297298299300301302303304305306307308309310311312313314315316317318319320321322323324325326327328329330331332333334335336337338339340341342343344345346347348349350351352353354355356357358359360361362363364365366367368369370371372373374375376377378379380381382383384385386387388389390391392393394395396397398399400401402403404405406407408409410411412413414415416417418419420421422423424425426427428429430431432433434435436437438439440441442443444445446447448449450451452453454455456457458459460461462463464465466467468469470471472473474475476477478479480481482483484485486487488489490491
  1. package json
  2. import "core:unicode/utf8"
  3. Pos :: struct {
  4. offset: int,
  5. line: int,
  6. column: int,
  7. }
  8. Token :: struct {
  9. using pos: Pos,
  10. kind: Token_Kind,
  11. text: string,
  12. }
  13. Token_Kind :: enum {
  14. Invalid,
  15. EOF,
  16. Null,
  17. False,
  18. True,
  19. Infinity,
  20. NaN,
  21. Ident,
  22. Integer,
  23. Float,
  24. String,
  25. Colon,
  26. Comma,
  27. Open_Brace,
  28. Close_Brace,
  29. Open_Bracket,
  30. Close_Bracket,
  31. }
  32. Tokenizer :: struct {
  33. using pos: Pos,
  34. data: []byte,
  35. r: rune, // current rune
  36. w: int, // current rune width in bytes
  37. curr_line_offset: int,
  38. spec: Specification,
  39. parse_integers: bool,
  40. }
  41. make_tokenizer :: proc(data: []byte, spec := Specification.JSON, parse_integers := false) -> Tokenizer {
  42. t := Tokenizer{pos = {line=1}, data = data, spec = spec, parse_integers = parse_integers};
  43. next_rune(&t);
  44. if t.r == utf8.RUNE_BOM {
  45. next_rune(&t);
  46. }
  47. return t;
  48. }
  49. next_rune :: proc(t: ^Tokenizer) -> rune #no_bounds_check {
  50. if t.offset >= len(t.data) {
  51. return utf8.RUNE_EOF;
  52. }
  53. t.offset += t.w;
  54. t.r, t.w = utf8.decode_rune(t.data[t.offset:]);
  55. t.pos.column = t.offset - t.curr_line_offset;
  56. return t.r;
  57. }
  58. get_token :: proc(t: ^Tokenizer) -> (token: Token, err: Error) {
  59. skip_digits :: proc(t: ^Tokenizer) {
  60. for t.offset < len(t.data) {
  61. if '0' <= t.r && t.r <= '9' {
  62. // Okay
  63. } else {
  64. return;
  65. }
  66. next_rune(t);
  67. }
  68. }
  69. skip_hex_digits :: proc(t: ^Tokenizer) {
  70. for t.offset < len(t.data) {
  71. next_rune(t);
  72. switch t.r {
  73. case '0'..='9', 'a'..='f', 'A'..='F':
  74. // Okay
  75. case:
  76. return;
  77. }
  78. }
  79. }
  80. scan_espace :: proc(t: ^Tokenizer) -> bool {
  81. switch t.r {
  82. case '"', '\'', '\\', '/', 'b', 'n', 'r', 't', 'f':
  83. next_rune(t);
  84. return true;
  85. case 'u':
  86. // Expect 4 hexadecimal digits
  87. for i := 0; i < 4; i += 1 {
  88. r := next_rune(t);
  89. switch r {
  90. case '0'..='9', 'a'..='f', 'A'..='F':
  91. // Okay
  92. case:
  93. return false;
  94. }
  95. }
  96. return true;
  97. case:
  98. // Ignore the next rune regardless
  99. next_rune(t);
  100. }
  101. return false;
  102. }
  103. skip_whitespace :: proc(t: ^Tokenizer) -> rune {
  104. loop: for t.offset < len(t.data) {
  105. switch t.r {
  106. case ' ', '\t', '\v', '\f', '\r':
  107. next_rune(t);
  108. case '\n':
  109. t.line += 1;
  110. t.curr_line_offset = t.offset;
  111. t.pos.column = 1;
  112. next_rune(t);
  113. case:
  114. if t.spec == .JSON5 {
  115. switch t.r {
  116. case 0x2028, 0x2029, 0xFEFF:
  117. next_rune(t);
  118. continue loop;
  119. }
  120. }
  121. break loop;
  122. }
  123. }
  124. return t.r;
  125. }
  126. skip_to_next_line :: proc(t: ^Tokenizer) {
  127. for t.offset < len(t.data) {
  128. r := next_rune(t);
  129. if r == '\n' {
  130. return;
  131. }
  132. }
  133. }
  134. skip_alphanum :: proc(t: ^Tokenizer) {
  135. for t.offset < len(t.data) {
  136. switch next_rune(t) {
  137. case 'A'..='Z', 'a'..='z', '0'..='9', '_':
  138. continue;
  139. }
  140. return;
  141. }
  142. }
  143. skip_whitespace(t);
  144. token.pos = t.pos;
  145. token.kind = .Invalid;
  146. curr_rune := t.r;
  147. next_rune(t);
  148. block: switch curr_rune {
  149. case utf8.RUNE_ERROR:
  150. err = .Illegal_Character;
  151. case utf8.RUNE_EOF, '\x00':
  152. token.kind = .EOF;
  153. err = .EOF;
  154. case 'A'..='Z', 'a'..='z', '_':
  155. token.kind = .Ident;
  156. skip_alphanum(t);
  157. switch str := string(t.data[token.offset:t.offset]); str {
  158. case "null": token.kind = .Null;
  159. case "false": token.kind = .False;
  160. case "true": token.kind = .True;
  161. case:
  162. if t.spec == .JSON5 {
  163. switch str {
  164. case "Infinity": token.kind = .Infinity;
  165. case "NaN": token.kind = .NaN;
  166. }
  167. }
  168. }
  169. case '+':
  170. err = .Illegal_Character;
  171. if t.spec != .JSON5 {
  172. break;
  173. }
  174. fallthrough;
  175. case '-':
  176. switch t.r {
  177. case '0'..='9':
  178. // Okay
  179. case:
  180. // Illegal use of +/-
  181. err = .Illegal_Character;
  182. if t.spec == .JSON5 {
  183. if t.r == 'I' || t.r == 'N' {
  184. skip_alphanum(t);
  185. }
  186. switch string(t.data[token.offset:t.offset]) {
  187. case "-Infinity": token.kind = .Infinity;
  188. case "-NaN": token.kind = .NaN;
  189. }
  190. }
  191. break block;
  192. }
  193. fallthrough;
  194. case '0'..='9':
  195. token.kind = t.parse_integers ? .Integer : .Float;
  196. if t.spec == .JSON5 { // Hexadecimal Numbers
  197. if curr_rune == '0' && (t.r == 'x' || t.r == 'X') {
  198. next_rune(t);
  199. skip_hex_digits(t);
  200. break;
  201. }
  202. }
  203. skip_digits(t);
  204. if t.r == '.' {
  205. token.kind = .Float;
  206. next_rune(t);
  207. skip_digits(t);
  208. }
  209. if t.r == 'e' || t.r == 'E' {
  210. switch r := next_rune(t); r {
  211. case '+', '-':
  212. next_rune(t);
  213. }
  214. skip_digits(t);
  215. }
  216. str := string(t.data[token.offset:t.offset]);
  217. if !is_valid_number(str, t.spec) {
  218. err = .Invalid_Number;
  219. }
  220. case '.':
  221. err = .Illegal_Character;
  222. if t.spec == .JSON5 { // Allow leading decimal point
  223. skip_digits(t);
  224. if t.r == 'e' || t.r == 'E' {
  225. switch r := next_rune(t); r {
  226. case '+', '-':
  227. next_rune(t);
  228. }
  229. skip_digits(t);
  230. }
  231. str := string(t.data[token.offset:t.offset]);
  232. if !is_valid_number(str, t.spec) {
  233. err = .Invalid_Number;
  234. }
  235. }
  236. case '\'':
  237. err = .Illegal_Character;
  238. if t.spec != .JSON5 {
  239. break;
  240. }
  241. fallthrough;
  242. case '"':
  243. token.kind = .String;
  244. quote := curr_rune;
  245. for t.offset < len(t.data) {
  246. r := t.r;
  247. if r == '\n' || r < 0 {
  248. err = .String_Not_Terminated;
  249. break;
  250. }
  251. next_rune(t);
  252. if r == quote {
  253. break;
  254. }
  255. if r == '\\' {
  256. scan_espace(t);
  257. }
  258. }
  259. str := string(t.data[token.offset : t.offset]);
  260. if !is_valid_string_literal(str, t.spec) {
  261. err = .Invalid_String;
  262. }
  263. case ',': token.kind = .Comma;
  264. case ':': token.kind = .Colon;
  265. case '{': token.kind = .Open_Brace;
  266. case '}': token.kind = .Close_Brace;
  267. case '[': token.kind = .Open_Bracket;
  268. case ']': token.kind = .Close_Bracket;
  269. case '/':
  270. err = .Illegal_Character;
  271. if t.spec == .JSON5 {
  272. switch t.r {
  273. case '/':
  274. // Single-line comments
  275. skip_to_next_line(t);
  276. return get_token(t);
  277. case '*':
  278. // None-nested multi-line comments
  279. for t.offset < len(t.data) {
  280. next_rune(t);
  281. if t.r == '*' {
  282. next_rune(t);
  283. if t.r == '/' {
  284. next_rune(t);
  285. return get_token(t);
  286. }
  287. }
  288. }
  289. err = .EOF;
  290. }
  291. }
  292. case: err = .Illegal_Character;
  293. }
  294. token.text = string(t.data[token.offset : t.offset]);
  295. return;
  296. }
  297. is_valid_number :: proc(str: string, spec: Specification) -> bool {
  298. s := str;
  299. if s == "" {
  300. return false;
  301. }
  302. if s[0] == '-' {
  303. s = s[1:];
  304. if s == "" {
  305. return false;
  306. }
  307. } else if spec == .JSON5 {
  308. if s[0] == '+' { // Allow positive sign
  309. s = s[1:];
  310. if s == "" {
  311. return false;
  312. }
  313. }
  314. }
  315. switch s[0] {
  316. case '0':
  317. s = s[1:];
  318. case '1'..='9':
  319. s = s[1:];
  320. for len(s) > 0 && '0' <= s[0] && s[0] <= '9' {
  321. s = s[1:];
  322. }
  323. case '.':
  324. if spec == .JSON5 { // Allow leading decimal point
  325. s = s[1:];
  326. } else {
  327. return false;
  328. }
  329. case:
  330. return false;
  331. }
  332. if spec == .JSON5 {
  333. if len(s) == 1 && s[0] == '.' { // Allow trailing decimal point
  334. return true;
  335. }
  336. }
  337. if len(s) >= 2 && s[0] == '.' && '0' <= s[1] && s[1] <= '9' {
  338. s = s[2:];
  339. for len(s) > 0 && '0' <= s[0] && s[0] <= '9' {
  340. s = s[1:];
  341. }
  342. }
  343. if len(s) >= 2 && (s[0] == 'e' || s[0] == 'E') {
  344. s = s[1:];
  345. switch s[0] {
  346. case '+', '-':
  347. s = s[1:];
  348. if s == "" {
  349. return false;
  350. }
  351. }
  352. for len(s) > 0 && '0' <= s[0] && s[0] <= '9' {
  353. s = s[1:];
  354. }
  355. }
  356. // The string should be empty now to be valid
  357. return s == "";
  358. }
  359. is_valid_string_literal :: proc(str: string, spec: Specification) -> bool {
  360. s := str;
  361. if len(s) < 2 {
  362. return false;
  363. }
  364. quote := s[0];
  365. if s[0] != s[len(s)-1] {
  366. return false;
  367. }
  368. if s[0] != '"' || s[len(s)-1] != '"' {
  369. if spec == .JSON5 {
  370. if s[0] != '\'' || s[len(s)-1] != '\'' {
  371. return false;
  372. }
  373. } else {
  374. return false;
  375. }
  376. }
  377. s = s[1 : len(s)-1];
  378. i := 0;
  379. for i < len(s) {
  380. c := s[i];
  381. switch {
  382. case c == '\\':
  383. i += 1;
  384. if i >= len(s) {
  385. return false;
  386. }
  387. switch s[i] {
  388. case '"', '\'', '\\', '/', 'b', 'n', 'r', 't', 'f':
  389. i += 1;
  390. case 'u':
  391. if i >= len(s) {
  392. return false;
  393. }
  394. hex := s[i+1:];
  395. if len(hex) < 4 {
  396. return false;
  397. }
  398. hex = hex[:4];
  399. i += 5;
  400. for j := 0; j < 4; j += 1 {
  401. c2 := hex[j];
  402. switch c2 {
  403. case '0'..='9', 'a'..='z', 'A'..='Z':
  404. // Okay
  405. case:
  406. return false;
  407. }
  408. }
  409. case: return false;
  410. }
  411. case c == quote, c < ' ':
  412. return false;
  413. case c < utf8.RUNE_SELF:
  414. i += 1;
  415. case:
  416. r, width := utf8.decode_rune_in_string(s[i:]);
  417. if r == utf8.RUNE_ERROR && width == 1 {
  418. return false;
  419. }
  420. i += width;
  421. }
  422. }
  423. if i == len(s) {
  424. return true;
  425. }
  426. return true;
  427. }