一个基于web服务器的PoW案例

简介: 一个基于web服务器的PoW案例一、安装第三方库go get github.com/davecgh/go-spew/spew这个库的功能是在命令行格式化输出内容。go get github.com/gorilla/mux这个开发包是用来编写Web处理程序的。go get github.com/joho/godotenv这个工具包是读取.env后缀名的文件中的数据,如果是Linux环境,.env文件放置在项目的根目录即可,如果是Windows和Mac OS,.env文件需要放在GOPATH/src目录下。

一个基于web服务器的PoW案例

一、安装第三方库

go get github.com/davecgh/go-spew/spew

这个库的功能是在命令行格式化输出内容。

go get github.com/gorilla/mux

这个开发包是用来编写Web处理程序的。

go get github.com/joho/godotenv

这个工具包是读取.env后缀名的文件中的数据,如果是Linux环境,.env文件放置在项目的根目录即可,如果是Windows和Mac OS,.env文件需要放在GOPATH/src目录下。

二、定义区块信息、难度系数

constdifficulty=4

 

typeBlockstruct {

    Indexint

    Timestampstring

    BMPint

    HashCodestring

    PreHashstring

    Diffint

    Nonceint

}

 

varBlockchain []Block

typeMessagestruct {

    BlockPostMessageint

}

varmutex=&sync.Mutex{}

这里我们定义一下挖矿生成区块的难度值,然后定义区块,包含区块高度、时间戳、交易信息、当前的Hash值和上一个的Hash值,还有难度和随机值。

然后定义区块链,用区块数组。

然后我们这里要根据Get请求和Post请求来生成区块,所以定义一个消息结构体用于存储Post信息。

最后定义一个互斥锁。

三、生成区块

funcgenerateBlock(oldBlockBlock, BlockPostMessageint) Block {

    varnewBlockBlock

    newBlock.PreHash=oldBlock.HashCode

   

    newBlock.Index=oldBlock.Index+1

   

    t :=time.Now()

    newBlock.Timestamp=t.String()

   

    newBlock.BlockPostMessage=BlockPostMessage

   

    newBlock.Diff=difficulty

 

    fori :=0; ; i++ {

        newBlock.Nonce++

        hash :=calculateHash(newBlock)

        fmt.Println(hash)

       

        ifisHashValid(hash, newBlock.Diff) {

            fmt.Println("挖矿成功")

            newBlock.HashCode=hash

            returnnewBlock

        }

    }

}

每次生成新的区块前,先获取先前区块的Hash值放置在这个区块的上一个区块Hash值,然后获取当前时间,通过String()方法转换成为时间戳后放入区块的Timestamp。然后将Post传递的消息放入区块,将我们固定不变的困难值放入区块。

然后循环挖矿,每次挖矿将随机数加一,然后先不管这个区块能不能成功并入区块链,得先计算它的哈希值才能知道,然后校验哈希值的前导0,如果成功就输出挖矿成功。

四、生成哈希值

funccalculateHash(blockBlock) string {

    hashed :=strconv.Itoa(block.Index) +block.Timestamp+

        strconv.Itoa(block.Nonce) +strconv.Itoa(block.BlockPostMessage) +

        block.PreHash

    sha :=sha256.New()

    sha.Write([]byte(hashed))

    hash :=sha.Sum(nil)

    returnhex.EncodeToString(hash)

}

很简单的逻辑,将区块的数据拼接后用sha256进行加密,得到hash值。

五、区块校验

funcisHashValid(hashstring, difficultyint) bool {

    prefix :=strings.Repeat("0", difficulty)

    returnstrings.HasPrefix(hash, prefix)

}

这个我们本专栏之前的文章介绍了,在此简单说一下,这里我们就校验一下哈希值前面的零的数量是不是和难度值一致。

六、启动HTTP服务器

funcrun() error {

    mux :=makeMuxRouter()

    httpAddr :=os.Getenv("PORT")

    log.Println("Listening on ", httpAddr)

   

    s :=&http.Server{

        Addr: ":"+httpAddr,

        Handler: mux,

        ReadTimeout:  10*time.Second,

        WriteTimeout: 10*time.Second,

        MaxHeaderBytes: 1<<20,

    }

    iferr :=s.ListenAndServe(); err!=nil {

        returnerr

    }

    returnnil

}

我们先从.env文件中获取PORT的值。然后监听获取的端口号。http.Server是设置http服务器的参数,其中Addr是地址,ReadTimeout、WriteTimeout分别是读写超时时间,然后是设置请求头的数据大小的最大值,1 << 20是位运算,算出来就是1MB。!!!最重要的就是回调函数了,这里需要我们自己编写来处理Get和Post请求。

然后我们就来监听事件并且根据监听到的事件来服务。

七、回调函数的编写

funcmakeMuxRouter() http.Handler {

    muxRouter :=mux.NewRouter()

    muxRouter.HandleFunc("/",

        handGetBlockchain).Methods("GET")

    muxRouter.HandleFunc("/",

        handWriteBlock).Methods("POST")

    returnmuxRouter

}

mux.NewRouter()是用来创建路由,muxRouter.HandleFunc("/",handGetBlockchain).Methods("GET")是根据你访问的目录和请求类型来调用指定的方法。这里是使用Get方法访问根目录就调用handGetBlockchain方法。同样的,muxRouter.HandleFunc("/",handWriteBlock).Methods("POST")就是使用Post请求访问根目录时就调用handWriteBlock方法。

八、处理Get请求

funchandGetBlockchain(whttp.ResponseWriter, r*http.Request) {

    bytes, err :=json.MarshalIndent(Blockchain, "", "\t")

    iferr!=nil {

        http.Error(w, err.Error(), http.StatusInternalServerError)

        return

    }

    io.WriteString(w, string(bytes))

}

我们需要将数据转换为json格式,便于与前端进行交互。

同样我们的参数分别是响应和请求。然后处理错误,当出现500错误时,也就是http.StatusInternalServerError,我们将err.Error()写入w:

image.png

如果没出错,就将json数据写入w。

九、处理POST请求

funchandWriteBlock(writerhttp.ResponseWriter, request*http.Request) {

    writer.Header().Set("Content-Type", "application/json")

    varmessageMessage

    decoder :=json.NewDecoder(request.Body)

    iferr :=decoder.Decode(&message); err!=nil {

        responseWithJSON(writer, request, http.StatusNotFound, request.Body)

    }

 

    deferrequest.Body.Close()

 

    mutex.Lock()

    newBlock :=generateBlock(Blockchain[len(Blockchain)-1], message.BPM)

    mutex.Unlock()

 

    ifisBlockValid(newBlock, Blockchain[len(Blockchain)-1]) {

        Blockchain=append(Blockchain, newBlock)

        spew.Dump(Blockchain)

    }

    //返回响应信息

    responseWithJSON(writer, request, http.StatusCreated, newBlock)

}

 

因为需要服务器响应结果为json,先设置响应头的"Content-Type"为"application/json"。然后从request中读取JSON数据,将JSON数据转成Message。如果转换失败,就交给下一步处理异常,如果成功就创建新的区块。

这里使用defer,说明我们要记得关闭请求哦~

然后添加区块时要记得上锁,可以防止同个时间点多个POST请求生成区块。

接下来就要校验生成的区块是否正确,如果正确就加入区块链中。

十、处理异常

func responseWithJSON(writer http.ResponseWriter, request *http.Request,

code int, inter interface{}) {

   

writer.Header().Set("Content-Type", "application/json")

response, err := json.MarshalIndent(inter, "", "\t")

if err != nil {

writer.WriteHeader(http.StatusInternalServerError)

writer.Write([]byte("HTTP 500:Server Error"))

return

}

writer.WriteHeader(code)

writer.Write(response)

}

如果将传入的inter转换为json格式的数据没有出现错误就往响应头写入响应码,并将数据写入。

十一、校验区块是否正确

func isBlockValid(newBlock, oldBlock Block) bool {

if oldBlock.Index+1 != newBlock.Index {

return false

}

if oldBlock.HashCode != newBlock.PreHash {

return false

}

if calculateHash(newBlock) != newBlock.HashCode {

return false

}

return true

}

这里校验了新区块的index是否等于原来最后一个区块的index加一,新区块的PreHash应该等于之前区块链最后一个区块的HashCode。然后还需要再一次计算区块的哈希值,进行比对。

十二、主逻辑

然后我们现在用Go实现通过http请求来完成区块链。

func main() {

err := godotenv.Load()

if err != nil {

log.Fatal(err)

}


go func() {

t := time.Now()

genessisBlock := Block{}

genessisBlock = Block{0, t.String(),

  0, calculateHash(genessisBlock),

  "", difficulty, 0}

mutex.Lock()

Blockchain = append(Blockchain, genessisBlock)

mutex.Unlock()

spew.Dump(genessisBlock)

}()


//创建http服务器的启动函数

log.Fatal(run())

}

godotenv.Load()加载一个文件,如果不填写参数,就默认是加载.env文件。

这个.env文件我们这里就只需要填写一个端口号。

image.png

这里我们先将创世区块加入区块链。然后用spew.Dump()将其格式化输出到命令行。

最后我们会要用run来启动http服务器。

十三、运行结果

我们可以使用curl来进行get和post请求。

image.png

这是get请求,得到区块链。

image.png

这是进行post请求,新建一个区块加到了区块链。

image.png

可以看到再次get请求,已经有新的区块在区块链中了。


目录
相关文章
|
21天前
|
Oracle 关系型数据库 数据库
服务器数据恢复—服务器raid5阵列数据恢复案例
一台服务器上的8块硬盘组建了一组raid5磁盘阵列。上层安装windows server操作系统,部署了oracle数据库。 raid5阵列中有2块硬盘的硬盘指示灯显示异常报警。服务器操作系统无法启动,ORACLE数据库也无法启动。
57 17
|
28天前
|
运维 数据挖掘 Windows
服务器数据恢复—服务器硬盘指示灯亮黄灯的数据恢复案例
服务器硬盘指示灯闪烁黄灯是一种警示,意味着服务器硬盘出现故障即将下线。发现这种情况建议及时更换硬盘。 一旦服务器上有大量数据频繁读写,硬盘指示灯会快速闪烁。服务器上某个硬盘的指示灯只有黄灯亮着,而其他颜色的灯没有亮的话,通常表示这块硬盘出现故障,这时候更换新硬盘同步数据即可。 如果没有及时发现硬盘损坏或者更换硬盘失败导致服务器崩溃,应该如何恢复数据呢?下面通过一个真实案例讲解一下服务器硬盘指示灯亮黄色的数据恢复案例。
|
15天前
|
数据挖掘 数据库
服务器数据恢复—Zfs文件系统下误删除数据的恢复案例
服务器数据恢复环境&故障: 一台zfs文件系统的服务器,管理员误操作删除了服务器上的数据。
|
17天前
|
存储 数据挖掘 数据库
服务器数据恢复—EMC UNITY 400存储卷被误删除的数据恢复案例
EMC Unity 400存储连接了2台硬盘柜。2台硬盘柜上一共有21块硬盘(520字节)。21块盘组建了2组RAID6:一组有11块硬盘,一组有10块硬盘。 在存储运行过程中,管理员误操作删除了 2组POOL上的部分数据卷。
|
24天前
|
存储 算法 数据挖掘
服务器数据恢复—nas中raid6阵列失效,存储无法访问的数据恢复案例
一台nas上共有14块硬盘组建了一组raid6磁盘阵列。 该nas在工作过程中,raid6阵列中硬盘出现故障离线,导致raid6阵列失效,nas无法正常访问。
|
2月前
|
存储 数据挖掘 数据库
服务器数据恢复—OceanStor存储数据恢复案例
华为OceanStor T系列某型号存储中有一组由24块机械硬盘组建的一组RAID5阵列。 运行过程中该存储设备RAID5阵列上多块硬盘出现故障离线,阵列失效,存储中数据无法访问。
|
29天前
|
存储 数据挖掘
服务器数据恢复—zfs文件系统服务器数据恢复案例
一台配有32块硬盘的服务器在运行过程中突然崩溃不可用。经过初步检测,基本上确定服务器硬件不存在物理故障。管理员重启服务器后问题依旧。需要恢复该服务器中的数据。
|
2月前
|
运维 数据挖掘 索引
服务器数据恢复—Lustre分布式文件系统服务器数据恢复案例
5台节点服务器,每台节点服务器上有一组RAID5阵列。每组RAID5阵列上有6块硬盘(其中1块硬盘设置为热备盘,其他5块硬盘为数据盘)。上层系统环境为Lustre分布式文件系统。 机房天花板漏水导致这5台节点服务器进水,每台服务器都有至少2块硬盘出现故障。每台服务器中的RAID5阵列短时间内同时掉线2块或以上数量的硬盘,导致RAID崩溃,服务器中数据无法正常读取。
|
2月前
|
存储 数据挖掘
服务器数据恢复—V7000存储上多块Mdisk成员盘出现故障的数据恢复案例
服务器存储数据恢复环境: 一台V7000存储上共12块SAS机械硬盘(其中1块是热备盘),组建了2组Mdisk,创建了一个pool。挂载在小型机上作为逻辑盘使用,小型机上安装的AIX+Sybase。 服务器存储故障: V7000存储中磁盘出现故障,管理员发现问题后立即更换磁盘。新更换的硬盘在上线同步数据的时候,存储上另一块磁盘也出现问题,导致逻辑盘无法挂接在小型机上,业务暂时中断。V7000存储的管理界面上显示两块硬盘故障脱机。 pool无法加载,其中三个通用卷均无法挂载。
|
2月前
|
安全 数据挖掘
服务器数据恢复—RAID5阵列中两块硬盘离线导致阵列崩溃的数据恢复案例
服务器数据恢复环境: 两组分别由4块SAS接口硬盘组建的raid5阵列,两组raid5阵列划分LUN并由LVM管理,格式化为EXT3文件系统。 服务器故障: RAID5阵列中一块硬盘未知原因离线,热备盘自动激活上线替换离线硬盘。在热备盘上线过程中,raid5阵列中又有一块硬盘离线。热备盘同步失败,该raid阵列崩溃,LVM结构变得不完整,文件系统无法正常使用。