json – 使用节点js中的Avro序列化数据

前端之家收集整理的这篇文章主要介绍了json – 使用节点js中的Avro序列化数据前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。
我想从 JSON对象序列化数据,并通过网络将其发送到kafka作为结束.现在我有一个avro模式在一个文件,确定发送到kafka为日志记录系统必需的字段:
{"namespace": "com.company.wr.messages","type": "record","name": "Log","fields": [
       {"name": "timestamp","type": "long"},{"name": "source","type": "string"},{"name": "version",{"name": "ipAddress",{"name": "name",{"name": "level",{"name": "errorCode",{"name": "message","type": "string"}
       ]
}

我正在使用一个节点包’avro-schema’,我尝试过其他的,但是没有一个工作正常,我只需要从节点js以一个avro的方式序列化.

解决方法

avsc
var avro = require('avsc');

// Parse the schema.
var logType = avro.parse({
  "namespace": "com.company.wr.messages","fields": [
    {"name": "timestamp","type": "string"}
  ]
});

// A sample log record.
var obj = {
  timestamp: 2313213,source: 'src',version: '1.0',ipAddress: '0.0.0.0',name: 'foo',level: 'INFO',errorCode: '',message: ''
};

// And its corresponding Avro encoding.
var buf = logType.toBuffer(obj);

您可以找到有关here各种编码方法的更多信息.

原文链接:https://www.f2er.com/js/152855.html

猜你在找的JavaScript相关文章