我正在try 根据时间间隔从Kafka个事件中拆分一些事件.基本上,目标是读取datetime列中的值,运行一个简单的公式来判断当前事件是否落在当前的interval中.如果是,则将该事件附加到RecordBuilder,否则flush将事件组(A segment)附加到parquet文件.

以下是我到目前为止拥有的代码:

type Segment struct {
    mu             sync.Mutex
    schema         *arrow.Schema
    evtStruct      *arrow.StructType
    builder        *array.RecordBuilder
    writer         *pqarrow.FileWriter
    timestampIndex int
}

func NewSegment(dir string, datetimeFieldName string, schema *arrow.Schema) (*Segment, error) {
        // other inits here
        // ...

    // create a parquet file
    pFile, err := os.Create(fileName)
    if err != nil {
        return nil, err
    }
    w, err := pqarrow.NewFileWriter(schema, pFile, props, pqarrow.DefaultWriterProps())
    if err != nil {
        panic(err)
    }

    // create the new record builder for inserting data to arrow
    mem := memory.NewCheckedAllocator(memory.NewGoAllocator())
    b := array.NewRecordBuilder(mem, schema)

    evtStruct := arrow.StructOf(schema.Fields()...)
    idx, ok := evtStruct.FieldIdx(datetimeFieldName)
    if !ok {
        return nil, fmt.Errorf("couldn't find datetime column")
    }

    return &Segment{
        schema:         schema,
        evtStruct:      evtStruct,
        mu:             sync.Mutex{},
        builder:        b,
        writer:         w,
        timestampIndex: idx,
    }, nil
}

// data comes from Kafka and it represent a single event
func (s *Segment) InsertData(data []byte) error {
    s.mu.Lock()
    defer s.mu.Unlock()

        // TODO: do partition by interval here
        // extract the datetime value --> dtVal (unix epoch)
        // assume for now an interval of 5 minutes
        // dtPartition = math.floor(dtVal, 5*60)
        /* if dtPartition > oldDtPartition {
                return s.Flush()
           }
        */

        // append the data to the current builder
    if err := s.builder.UnmarshalJSON(data); err != nil {
        return err
    }

    return nil
}

// Flush persist the segment on disk
func (s *Segment) Flush() error {
    s.mu.Lock()
    defer s.mu.Unlock()

    rec := s.builder.NewRecord()

    // closable
    defer s.builder.Release()
    defer s.writer.Close()
    defer rec.Release()

    // write parquet file
    if err := s.writer.WriteBuffered(rec); err != nil {
        return err
    }

    return nil
}

问题是,我无法对InsertData函数的data输入参数执行"Unmarshal"操作,因为没有可以将其解组到的"struct".我能够创建arrow.Schemaarrow.StructType是因为我正在创建的服务允许用户定义事件的模式.因此,我正在try 找到一种方法来读取事件中的datetime值,并决定哪一个值属于interval.

在函数InsertData中,我添加了一些我想要实现的愚蠢的伪代码.也许ApacheArrow有一些功能可以帮助我完成我想要做的事情.提前谢谢您.

推荐答案

如果您可以这样做:s.builder.UnmarshalJSON(data),那么data就是一个JSON值.您可以打印datafmt.Printf("%s", data)来确认这一点.

如果您确定每个事件都包含一个datetime列,那么您可以像这样定义一个 struct ,这样您就可以将data解组到它:

type event struct {
    Datetime int64 `json:"datetime"`
}

以下是一个小演示:

package main

import (
    "encoding/json"
    "fmt"
)

func getDatatime(data []byte) (int64, error) {
    var e struct {
        Datetime int64 `json:"datetime"`
    }
    if err := json.Unmarshal(data, &e); err != nil {
        return 0, err
    }

    return e.Datetime, nil
}

func main() {
    data := []byte(`{"datetime": 1685861011, "region": "NY", "model": "3", "sales": 742.0, "extra": 1234}`)

    fmt.Println(getDatatime(data))
}

Go相关问答推荐

如何使用Docker Compose配置Go,使main. go文件位于/CMD文件夹中

禁用Golang中的终端

在Golang中Mergesort的递归/并行实现中出现死锁

在GO中使用泛型类型 struct 实现接口方法

";无效的复制因子;融合Kafka Go客户端

如何在出现错误时停止从通道读取?

该文件位于模块.内,该模块不包含在您的工作区中

如何在 Go 中将 int 转换为包含 complex128 的泛型类型?

无法使用带有 422 的 go-github 创建提交 - 更新不是快进

helm :将 YAML 转换为 JSON 时出错:yaml:第 xx 行:未找到预期的密钥

是否可以从 golang 中的参数推断类型?

Golang 构建多平台问题

golang pic.ShowImage 为什么它不生成图像而是向我发送base64值

有没有办法将 yaml node 添加到 golang 中现有的 yaml 文档中?

使用 Go 读取 TOML 文件时结果为空

Unescape 在 rss 中两次逃脱了标题

具有多个嵌入式 struct 的 Go MarshalJSON 行为

Go 1.18 泛型如何使用接口定义新的类型参数

Golang 查询扫描未将查询正确扫描到 struct 中

如何在程序退出时使用 golang 删除文件?