集成IPFS星际文件系统,并基于WeBASE-Front发送交易接口实现文件类上链存证的计划

作者简介: 孙运盛 吉科软信息技术有限公司 大数据技术研究院架构师。负责吉科软区块链BaaS平台设计研发,基于FISCO BCOS的区块链技术钻研以及在智慧农业、智慧城市、智慧食安行业畛域的区块链技术利用研发。

一、背景

  • 随着业务的倒退,越来越多的业务诉求集中到文件上链,比方图片类、各类电子证明文件、视频文件等文件类型数据上链。常见文件类上链场景如电子证照类、医疗影像类、电子票据类、数字藏品类等等都波及对文件不可篡改个性的需要,借助区块链上链存储实现文件的不可篡改和一致性校验;
  • 对于文件类上链有两种计划:计划一为文件内容间接上链,这样生成的交易内容较大,蕴含交易的区块大小增长较快,随着业务量减少,对区块链的网络和存储带来较大的压力;计划二为文件内容hash上链,具体计划为将文件存储在对象存储服务器上,将文件内容hash以及相干信息上链,上链信息较小,针对大数据量和高并发场景实用;
  • 其中计划二更优,当查问链上文件信息时,校验链上文件内容hash与对象存储服务器上文件内容hash是否统一,来确认文件内容是否被篡改。这种形式可极大防止对区块链产品的网络和存储压力,同时也能保障对文件内容的可信与可验证。

    本文将依据IPFS星际文件存储系统和基于CRUD的代理模式合约,对文件类上链的处理过程进行示例阐明,如何将业务方的文件存储到IPFS,同时计算文件内容哈希,再通过智能合约将文件内容哈希、IPFS文件存储哈希以及业务方上送的其余文件属性信息一并上链存储。计划流程如下图:

二、试验环境

名称版本号阐明
FISCO BCOSv2.9.0
WeBASE-Frontv1.5.4
Solidity^0.6.10
IPFS(kubo)v0.21.0最新IPFS版本已更名为kubo

三、IPFS公有网络多节点部署

3.1 下载安装文件

ipfs官网地址:https://dist.ipfs.tech/
下载kubo(go-ipfs),装置列表中适配的操作系统进行下载对应的安装文件。

3.2 装置及初始化

将下载的文件放到任意装置目录下,进行解压

#1.解压安装包tar -zxvf kubo_v0.21.0_linux-amd64.tar.gz#2.进入解压后的目录cd kubo#3.执行install.sh脚本./install.sh#4.执行初始化ipfs init#5.解决跨域问题ipfs config --json API.HTTPHeaders.Access-Control-Allow-Methods '["PUT", "GET", "POST", "OPTIONS"]'ipfs config --json API.HTTPHeaders.Access-Control-Allow-Origin '["*"]'ipfs config --json API.HTTPHeaders.Access-Control-Allow-Credentials '["true"]'ipfs config --json API.HTTPHeaders.Access-Control-Allow-Headers '["Authorization"]'ipfs config --json API.HTTPHeaders.Access-Control-Expose-Headers '["Location"]'#6.启动ipfsipfs daemon#7.若启动时与本地服务端口发生冲突,能够在IPFS的配置中对端口进行从新指定

3.3 公有网络部署多节点

3.3.1 装置golang环境

官网下载go,地址 https://go.dev/dl/
下载合乎操作系统的版本 ,如 https://go.dev/dl/go1.20.6.linux-amd64.tar.gz

下载后解压文件

tar -zxvf go1.20.6.linux-amd64.tar.gz

配置环境变量,批改/etc/profile文件,减少go的bin目录,如:

export GOROOT=/home/bigdata/goexport PATH=$PATH:$GOROOT/bin

执行 source /etc/profile,使更改失效。

3.3.2 各节点服务器顺次下载并装置IPFS

参考上节的单机装置ipfs,查看节点的ID

[root@localhost .ipfs]# ipfs id{"ID": "12D3KooWPRK2HL5deq1wn8ZuoeJKqctzh6ywoTsg9cz7Fwzwzpn3","PublicKey": "CAESIMobs4cyoWjM0h980TSqNLp+FYEWpXrhKz+GTGJyWMk4","Addresses": null,"AgentVersion": "kubo/0.21.0-rc3/","ProtocolVersion": "ipfs/0.1.0","Protocols": null}
3.3.3 IPFS 配置文件批改

IPFS多节点 能力构建一个本地的分布式文件系统,在联盟链开发环境下,少数会应用到IPFS多节点公有网存储文件。
为了搭建多节点的IPFS拜访,须要批改~/.ipfs目录下的config 文件

"Addresses": {    "API": "/ip4/192.168.189.102/tcp/5001",    "Announce": [],    "AppendAnnounce": [],    "Gateway": "/ip4/192.168.189.102/tcp/8181",    "NoAnnounce": [],    "Swarm": [      "/ip4/0.0.0.0/tcp/4001",      "/ip6/::/tcp/4001",      "/ip4/0.0.0.0/udp/4001/quic",      "/ip4/0.0.0.0/udp/4001/quic-v1",      "/ip4/0.0.0.0/udp/4001/quic-v1/webtransport",      "/ip6/::/udp/4001/quic",      "/ip6/::/udp/4001/quic-v1",      "/ip6/::/udp/4001/quic-v1/webtransport"    ]  }

其中 API 和Gateway两局部的ip地址改为本机IP地址。Gateway的端口地址默认为8080,能够批改为其余端口号 如 8181, 不与其余利用的8080端口号抵触即可。

3.3.4 删除公共连贯节点

ipfs bootstrap rm --all

3.3.5 创立共享KEY

下载go-ipfs-swarm-key-gen,因为linux下拜访github.com很难拜访,能够应用git命令将工程clone下来,并且github.com 用kgithub.com替换,即可胜利拜访github。

git clone https://kgithub.com/Kubuxu/go-ipfs-swarm-key-gen.git

swarm.key 密钥容许咱们创立一个公有网络,并通知网络节点只和领有雷同秘钥的节点通信,在一个节点上执行上面命令:
进入go-ipfs-swarm-key-gen/ipfs-swarm-key-gen目录下执行 go build编译。

[root@localhost ipfs-swarm-key-gen]# go build[root@localhost ipfs-swarm-key-gen]# lsipfs-swarm-key-gen  main.go

编译胜利会在目录下生成 ipfs-swarm-key-gen的可执行文件。

应用ipfs-swarm-key-gen 生成密钥文件:
./ipfs-swarm-key-gen > ~/.ipfs/swarm.key
进入 ~/.ipfs/查看生成的swarm.key文件

[root@localhost ipfs-swarm-key-gen]# cd ~/.ipfs/[root@localhost .ipfs]# lsapi  blocks  config  datastore  datastore_spec  gateway  keystore  nohup.out  repo.lock  swarm.key  version

a.如果编译报错,解决方案

[root@localhost ipfs-swarm-key-gen]# go builderror obtaining VCS status: directory "/home/bigdata" is not using a known version control systemUse -buildvcs=false to disable VCS stamping.

呈现此谬误时,执行
go env -w GOFLAGS=-buildvcs=false

3.3.6 将共享key复制到其余节点
[root@localhost .ipfs]# scp swarm.key root@192.168.189.103:~/.ipfsswarm.key                                                                                                                    100%   95     1.2KB/s   00:00[root@localhost .ipfs]# scp swarm.key root@192.168.189.120:~/.ipfsswarm.key                                                                                                                    100%   95     0.9KB/s   00:00[root@localhost .ipfs]# scp swarm.key root@192.168.189.121:~/.ipfsswarm.key
3.3.7 查看本节点的ID,并在其余节点中增加本节点

在本节点服务器执行 ipfs id

[root@localhost .ipfs]# ipfs id{"ID": "12D3KooWPRK2HL5deq1wn8ZuoeJKqctzh6ywoTsg9cz7Fwzwzpn3","PublicKey": "CAESIMobs4cyoWjM0h980TSqNLp+FYEWpXrhKz+GTGJyWMk4","Addresses": ["/ip4/127.0.0.1/tcp/4001/p2p/12D3KooWPRK2HL5deq1wn8ZuoeJKqctzh6ywoTsg9cz7Fwzwzpn3","/ip4/127.0.0.1/udp/4001/quic-v1/p2p/12D3KooWPRK2HL5deq1wn8ZuoeJKqctzh6ywoTsg9cz7Fwzwzpn3","/ip4/127.0.0.1/udp/4001/quic-v1/webtransport/certhash/uEiCl2iwFGuc_5lPbIW_1kx-sHE8StNUn1oyO9C92Fo_aMA/certhash/uEiAqpOGn8isK2l-fOPxkGKwk63FSkYVmlw1O3cMNO3pbVA/p2p/12D3KooWPRK2HL5deq1wn8ZuoeJKqctzh6ywoTsg9cz7Fwzwzpn3","/ip4/127.0.0.1/udp/4001/quic/p2p/12D3KooWPRK2HL5deq1wn8ZuoeJKqctzh6ywoTsg9cz7Fwzwzpn3","/ip4/192.168.189.102/tcp/4001/p2p/12D3KooWPRK2HL5deq1wn8ZuoeJKqctzh6ywoTsg9cz7Fwzwzpn3","/ip4/192.168.189.102/udp/4001/quic-v1/p2p/12D3KooWPRK2HL5deq1wn8ZuoeJKqctzh6ywoTsg9cz7Fwzwzpn3","/ip4/192.168.189.102/udp/4001/quic-v1/webtransport/certhash/uEiCl2iwFGuc_5lPbIW_1kx-sHE8StNUn1oyO9C92Fo_aMA/certhash/uEiAqpOGn8isK2l-fOPxkGKwk63FSkYVmlw1O3cMNO3pbVA/p2p/12D3KooWPRK2HL5deq1wn8ZuoeJKqctzh6ywoTsg9cz7Fwzwzpn3","/ip4/192.168.189.102/udp/4001/quic/p2p/12D3KooWPRK2HL5deq1wn8ZuoeJKqctzh6ywoTsg9cz7Fwzwzpn3","/ip6/::1/tcp/4001/p2p/12D3KooWPRK2HL5deq1wn8ZuoeJKqctzh6ywoTsg9cz7Fwzwzpn3","/ip6/::1/udp/4001/quic-v1/p2p/12D3KooWPRK2HL5deq1wn8ZuoeJKqctzh6ywoTsg9cz7Fwzwzpn3","/ip6/::1/udp/4001/quic-v1/webtransport/certhash/uEiCl2iwFGuc_5lPbIW_1kx-sHE8StNUn1oyO9C92Fo_aMA/certhash/uEiAqpOGn8isK2l-fOPxkGKwk63FSkYVmlw1O3cMNO3pbVA/p2p/12D3KooWPRK2HL5deq1wn8ZuoeJKqctzh6ywoTsg9cz7Fwzwzpn3","/ip6/::1/udp/4001/quic/p2p/12D3KooWPRK2HL5deq1wn8ZuoeJKqctzh6ywoTsg9cz7Fwzwzpn3"],"AgentVersion": "kubo/0.21.0-rc3/","ProtocolVersion": "ipfs/0.1.0","Protocols": ["/ipfs/bitswap","/ipfs/bitswap/1.0.0","/ipfs/bitswap/1.1.0","/ipfs/bitswap/1.2.0","/ipfs/id/1.0.0","/ipfs/id/push/1.0.0","/ipfs/lan/kad/1.0.0","/ipfs/ping/1.0.0","/libp2p/autonat/1.0.0","/libp2p/circuit/relay/0.2.0/stop","/x/"]}

找到 /ip4/192.168.189.102/tcp/4001/p2p/12D3KooWPRK2HL5deq1wn8ZuoeJKqctzh6ywoTsg9cz7Fwzwzpn3 ,在其余节点执行增加节点,如:

ipfs bootstrap add  /ip4/192.168.189.102/tcp/4001/p2p/12D3KooWPRK2HL5deq1wn8ZuoeJKqctzh6ywoTsg9cz7Fwzwzpn3
3.3.8 强制启用公有网络

批改config配置文件 ,在Routing局部增加 "Type":"dht",如下:

"Routing": {    "AcceleratedDHTClient": false,    "Methods": null,    "Routers": null,    "Type": "dht"}

增加环境变量,批改/etc/profile 增加 export LIBP2P_FORCE_PNET=1, 刷新文件
source /etc/profile

3.3.9 查看节点连贯状况

ipfs swarm peers

3.3.10 在其中一个节点上传文件,其余节点查看文件

每个节点都增加其余几个节点的ID信息,如在其中一个节点 增加另外一个节点的命令

ipfs bootstrap  add  /ip4/192.168.189.121/tcp/4001/p2p/12D3KooWPRTod1R4ivaac8cSfXRnkXgivcKaXjfrNmBCadXY1ATi

全副增加实现后,应用 ipfs swarm peers查看连贯的节点信息

[root@localhost .ipfs]# ipfs swarm peers/ip4/192.168.189.103/tcp/4001/p2p/12D3KooWKjjNkV2tUw3FZUMnrDrkPqR72eqjMCDkAXKqo1Foth2e/ip4/192.168.189.120/tcp/4001/p2p/12D3KooWB3EJA4m73qCWMXi9cWyZzfbsSEnn7LXsCFpHZX9JuQcb/ip4/192.168.189.121/tcp/4001/p2p/12D3KooWPRTod1R4ivaac8cSfXRnkXgivcKaXjfrNmBCadXY1ATi

在192.168.189.102节点上增加文件, 其余节点上查看文件
增加文件:

[root@localhost home]# ipfs add haha.txtadded QmWEkNNf7XUJ2aS6BhNs9UNRnusVVyFfbmD7L9HmPFWnQP haha.txt4 B / 4 B [===================================================================================] 100.00%

其余节点顺次查看 该哈希对应的文件内容

[root@localhost bigdata]# ipfs cat QmWEkNNf7XUJ2aS6BhNs9UNRnusVVyFfbmD7L9HmPFWnQPhello

能够在任意节点上传文件,其余节点查看文件,进行测试所有节点是否均联通。

3.3.11 通过浏览器拜访文件

拜访文件的地址为 http://节点IP:节点PORT/ipfs/文件哈希值
如:
http://192.168.189.102:8181/ipfs/QmSJYWJz9pXn6y4vXc5veEaQUQJQ...

3.3.12 将ipfs增加为零碎服务

首先创立 /etc/systemd/system/ipfs.service,
touch /etc/systemd/system/ipfs.service
批改ipfs.service文件,增加以下内容:

[Unit]Description=IPFS DaemonAfter=syslog.target network.target remote-fs.target nss-lookup.target[Service]Type=simpleExecStart=/usr/local/bin/ipfs daemon --enable-namesys-pubsubUser=root[Install]WantedBy=multi-user.target

执行
systemctl daemon-reload
应用以下命令进行启动和进行 及查看状态

service ipfs start service ipfs stopservice ipfs restartservice ipfs status

四、IPFS文件上传、下载JAVA服务接口

4.1 引入IPFS SDK依赖包

<dependency>    <groupId>com.github.ipfs</groupId>    <artifactId>java-ipfs-http-client</artifactId>    <version>v1.4.4</version></dependency>

4.2 初始化IPFS

package com.jkr.api.config;import lombok.Data;import org.springframework.boot.context.properties.ConfigurationProperties;import org.springframework.context.annotation.Configuration;/** * ipfs星际文件系统的属性配置 */@Data@Configuration@ConfigurationProperties(prefix = "ipfs.config")public class IpfsProperties {    private String multiAddr;}
package com.jkr.config;import com.jkr.api.config.IpfsProperties;import io.ipfs.api.IPFS;import lombok.extern.log4j.Log4j2;import org.springframework.beans.factory.annotation.Autowired;import org.springframework.context.annotation.Bean;import org.springframework.context.annotation.Configuration;import org.springframework.context.annotation.Scope;import java.io.IOException;/** * 初始化相干类 */@Log4j2@Configurationpublic class BeanConfig {    @Autowired    private IpfsProperties ipfsProperties;    @Bean    public IPFS ipfs() throws IOException {        IPFS ipfs = new IPFS(ipfsProperties.getMultiAddr());        ipfs.refs.local();        return ipfs;    }}

4.3 IPFS 文件上传、下载服务实现类

package com.jkr.api.service.impl;import cn.hutool.core.io.FileUtil;import com.jkr.api.service.IpfsService;import io.ipfs.api.IPFS;import io.ipfs.api.MerkleNode;import io.ipfs.api.NamedStreamable;import io.ipfs.multihash.Multihash;import org.springframework.beans.factory.annotation.Autowired;import org.springframework.stereotype.Service;import java.io.File;import java.io.IOException;/** * 连贯ipfs星际文件系统的文件上传和下载服务类 */@Servicepublic class IpfsServiceImpl implements IpfsService {    @Autowired    private IPFS ipfs;    /**     * 指定文件门路上传文件到ipfs     *     * @param filePath 文件门路     * @return 存储文件的寻址哈希     * @throws IOException     */    @Override    public String uploadToIpfs(String filePath) throws IOException {        NamedStreamable.FileWrapper file = new NamedStreamable.FileWrapper(new File(filePath));        MerkleNode addResult = ipfs.add(file).get(0);        String hash = addResult.hash.toString();        return hash;    }    /**     * 将byte格局的数据,上传至ipfs     *     * @param fileData     * @return 存储文件的寻址哈希     * @throws IOException     */    @Override    public String uploadToIpfs(byte[] fileData) throws IOException {        NamedStreamable.ByteArrayWrapper file = new NamedStreamable.ByteArrayWrapper(fileData);        MerkleNode addResult = ipfs.add(file).get(0);        return addResult.hash.toString();    }    /**     * 依据Hash值,从ipfs下载内容,返回byte数据格式     * @param hash 文件寻址哈希     * @return     */    @Override    public byte[] downFromIpfs(String hash) {        byte[] data = null;        try {            data = ipfs.cat(Multihash.fromBase58(hash));        } catch (IOException e) {            e.printStackTrace();        }        return data;    }    /**     * 依据Hash值,从ipfs下载内容,并写入指定文件destFilePath     *     * @param hash         文件寻址哈希     * @param destFilePath 指标文件门路     */    @Override    public void downFromIpfs(String hash, String destFilePath) {        byte[] data = null;        try {            data = ipfs.cat(Multihash.fromBase58(hash));        } catch (IOException e) {            e.printStackTrace();        }        if (data != null && data.length > 0) {            FileUtil.del(destFilePath);            FileUtil.writeBytes(data, destFilePath);        }    }}

五、文件数据上链的合约样例

对于文件上链采纳计划二,上链文件内容哈希,而不间接将文件自身上链,所以智能合约的编写可采纳文本信息上链形式,本示例中是基于CRUD合约的代理模式的通用存证智能合约。主合约为代理合约EvidenceProxy、逻辑合约EvidenceController、存储合约EvidenceStorage。

5.1 代理合约EvidenceProxy

pragma solidity ^0.6.10;import "./Proxy.sol";import "./EvidenceStorageStateful.sol";/** * @title 入口代理合约  * @author sunyunsheng * @notice 通用数据上链存证入口代理合约,实现设置具体实现的逻辑合约地址、返回存储合约地址列表 */contract EvidenceProxy is EvidenceStorageStateful, Proxy {     event SetStorage(address operator, address evidenceStorage);    /**    * @notice 设置存储合约地址    * @dev 限合约管理员调用    * @param _storageAddr 注销存储合约    */    function setStorage(address _storageAddr) external onlyOwner {        require(_storageAddr != address(0), "Proxy: storage address should not be 0x");        require(Address.isContract(_storageAddr), "Proxy: Cannot set a proxy storage to a non-contract address");        evidenceStorage = EvidenceStorage(_storageAddr);        storageAddrList.push(_storageAddr);        emit SetStorage(msg.sender, _storageAddr);    }    /**    * @notice 返回所有的存储合约地址列表    */    function getStorageVersions() public view returns (string memory result){        result="{";        for(uint i = 0; i < storageAddrList.length; i++) {            result = result.toSlice().concat(addressToString(storageAddrList[i]).toSlice());            if(i != (storageAddrList.length-1)) {                result = result.toSlice().concat(",".toSlice());            }        }        result = result.toSlice().concat("}".toSlice());    }}

5.2 逻辑合约EvidenceController

pragma solidity ^0.6.10;pragma experimental ABIEncoderV2;import "./Ownable.sol";import "./EvidenceStorageStateful.sol";import "./Table.sol";import "./Strings.sol";/** * @title 存证逻辑合约 * @author sunyunsheng * @notice 继承逻辑合约基类和控制权基类,实现动静建表、增加或更新数据、删除数据、依据主键查问数据的逻辑接口 */contract EvidenceController is EvidenceStorageStateful, Ownable {        using Strings for *;    event Create(string tableName);    event Put(string tableName, string key, string[] _data);    event Remove(string tableName, string key);    event MultiPutJson(string tableName, string keys, string values, string result);    /**    * @notice 动静建表    * @param tableName 表名    */    function create(string memory tableName) external {        require(evidenceStorage.StorageCreate(tableName) == int(0), "EvidenceController: createTable error");        emit Create(tableName);    }    /**    * @notice 增加信息,主动辨别是新增信息还是更新信息    * @param tableName 表名    * @param key 主键    * @param data 蕴含value以及5个保留字段的值汇合    */    function put(string memory tableName, string memory key, string[] memory data) public {        int _result ;        string memory  _key;        string[] memory _dataValue;            (_result, _key,  _dataValue) = evidenceStorage.StorageSelect(tableName, key);              require(keccak256(abi.encode(_dataValue)) != keccak256(abi.encode(data)),"EvidenceController: same value, not need put");        require(evidenceStorage.StoragePut(tableName, key, data) == int(1), "EvidenceController: put info error");        emit Put(tableName, key, data);    }    /*    * @notice 在表中删除key对应的记录    *         删除所有版本中key对应的记录    *    * @param tableName 表名    * @param keyValue 主键    */    function remove(string memory tableName, string memory key) external {        require(evidenceStorage.StorageRemove(tableName, key) == int(1), "EvidenceController: remove info error");        emit Remove(tableName, key);    }    /**    * @notice 获取链上信息    * @param tableName 表名    * @param key 主键    */    function get(string memory tableName, string memory  key) external view returns(        int _result ,string memory _key,string[] memory _valueData){        return evidenceStorage.StorageSelect(tableName, key);    }}

5.3 存储合约EvidenceStorage

pragma solidity ^0.6.10;pragma experimental ABIEncoderV2;import "./Table.sol";import "./BaseStorage.sol";import "./Strings.sol";/** * @title 通用存储合约 * @author sunyunsheng * @notice 数据上链通用存证的存储合约,实现动静建表、插入数据、批改数据、删除数据、查问数据、判断给定的key是否存在的逻辑性能 */contract EvidenceStorage is BaseStorage {    using Strings for *;            // table列表    string[] internal tableList;        // table记录的条目数    mapping(string => uint) internal tableRecords;    /**    * @return table列表    */    function getTableList() public view returns (string[] memory) {        return tableList;    }    /**    * @return table中操作的条目数    */    function getTableRecords(string memory key) public view returns (uint) {        return tableRecords[key];    }    /**    * @notice 动态创建表    * @param tableName 表的名称    * 表构造:    * +--------------+---------------------+-------------------------+    * | Field        | Type                | Desc                    |    * +--------------+---------------------+-------------------------+    * | key          | string              | 主键                     |    * | value        | string              | 对应value                |    * | reserve1     | string              | 保留字段1                |     * | reserve2     | string              | 保留字段2                |    * | reserve3     | string              | 保留字段3                |    * | reserve4     | string              | 保留字段4                |    * | reserve5     | string              | 保留字段5                |    * +--------------+---------------------+-------------------------+    *  count = 0 示意胜利创立    *  其余值示意创立失败    */    function StorageCreate(string memory tableName)public onlyProxy returns(int) {        TableFactory tf = TableFactory(0x1001);        int count = tf.createTable(tableName, "key", "value, reserve1, reserve2, reserve3, reserve4, reserve5");        tableList.push(tableName);        emit CreateResult(count);                return count;    }    /**    * @notice 插入数据    * @dev 限入口合约调用    * @param tableName 表的名称    * @param key       主键    * @param _data     蕴含除key主键之外的其余字段的值汇合    * count = 1  示意插入胜利    * count = -1 示意key已存在    * 其余值 示意插入失败    */    function StorageInsert(string memory tableName, string memory key, string[] memory _data)public onlyProxy returns(int) {        TableFactory tf = TableFactory(0x1001);        Table table = tf.openTable(tableName);              int count = 0 ;        if(_isKeyExist(table, key)){            count = -1 ;            tableRecords[tableName.toSlice().concat("_Insert_BAD".toSlice())] += 1;         }else{            Entry entry = table.newEntry();            entry.set("key", key);            entry.set("value", _data[0]);            if(_data.length>1){                for(uint i=1; i<_data.length; i++){                    entry.set("reserve".toSlice().concat(toString(i).toSlice()), _data[i]);                }            }            count = table.insert(key, entry);            tableRecords[tableName.toSlice().concat("_Insert_OK".toSlice())] += 1;         }        emit InsertResult(count);        return count;    }    /**    * @notice 通过key查问数据,以构造体模式返回    * @param tableName 表的名称    * @param key       主键    *    * result =  0 示意查问胜利    * result = -1 示意查问失败    */    function StorageSelect(string memory tableName,  string memory key) public view returns(int , string memory , string[] memory ){        TableFactory tf = TableFactory(0x1001);        Table table = tf.openTable(tableName);        int _result;        string memory _key;        string[] memory _data = new string[](6);        if(_isKeyExist(table, key)){            Condition condition = table.newCondition();            Entry entry = table.select(key, condition).get(int(0));            _data[0]=entry.getString("value");            _data[1]=entry.getString("reserve1");            _data[2]=entry.getString("reserve2");            _data[3]=entry.getString("reserve3");            _data[4]=entry.getString("reserve4");            _data[5]=entry.getString("reserve5");            _result = 0 ;            _key = key;        }else{            _result= -1 ;            _key = key;            _data[0]="";            _data[1]="";            _data[2]="";            _data[3]="";            _data[4]="";            _data[5]="";                   }        return (_result, _key, _data);    }    /**    * @notice 通过key增加数据,主动辨别是注册还是更新    * @param tableName 表的名称    * @param key       主键    * @param _data     蕴含除key主键之外的其余字段的值汇合    *    * count =  1 示意增加胜利    * 其余值示意更新失败    */    function StoragePut(string memory tableName, string memory key, string[] memory _data) public onlyProxy returns(int) {        TableFactory tf = TableFactory(0x1001);        Table table = tf.openTable(tableName);        int count = 0 ;        ( int _result, , string[] memory _valueData ) = StorageSelect(tableName, key);        Entry entry = table.newEntry();        entry.set("value", _data[0]);        if(_data.length>1){            for(uint i=1; i<_data.length; i++){                entry.set("reserve".toSlice().concat(toString(i).toSlice()), _data[i]);            }        }        if(_result == 0 ){            Condition condition = table.newCondition();            count = table.update(key, entry, condition);        }else{            count = table.insert(key, entry);        }        tableRecords[tableName.toSlice().concat("_Put".toSlice())] += 1;        emit PutResult(_result, count);        return count;    } /**    * @notice 通过key更新数据    * @param tableName 表的名称    * @param key       主键    * @param _data     蕴含除key主键之外的其余字段的值汇合    *    * count =  1 示意更新胜利    * count = -1 示意key不存在    * 其余值示意更新失败    */    function StorageUpdate(string memory tableName, string memory key, string[] memory _data ) public onlyProxy returns(int) {        TableFactory tf = TableFactory(0x1001);        Table table = tf.openTable(tableName);        int count = 0 ;        ( int _result, , string[] memory _valueData ) = StorageSelect(tableName, key);        if(_result == 0 ){                        Entry entry = table.newEntry();            entry.set("value", _data[0]);            if(_data.length>1){                for(uint i=1; i<_data.length; i++){                    entry.set("reserve".toSlice().concat(toString(i).toSlice()), _data[i]);                }            }            Condition condition = table.newCondition();            count = table.update(key, entry, condition);            tableRecords[tableName.toSlice().concat("_Update_OK".toSlice())] += 1;            }else{            count = -1;            tableRecords[tableName.toSlice().concat("_Update_BAD".toSlice())] += 1;                    }        emit UpdateResult(count);        return count;    }       /**    * @notice 通过key删除数据    * @param tableName 表的名称    * @param key       主键    *    * count =  1 标识删除胜利    * count = -1 示意key不存在    * 其余值示意删除失败    */    function StorageRemove(string memory tableName, string memory key) public onlyProxy returns(int){        TableFactory tf = TableFactory(0x1001);        Table table = tf.openTable(tableName);        int count = 0 ;        if(_isKeyExist(table, key)){            Condition condition = table.newCondition();            count = table.remove(key, condition);            tableRecords[tableName.toSlice().concat("_Remove_OK".toSlice())] += 1;        }else{            count = -1;            tableRecords[tableName.toSlice().concat("_Remove_BAD".toSlice())] += 1;                }            emit RemoveResult(count);        return count;    }    /**    * @notice 判读key值是否存在    * @param tableName 表的名称    * @param key       主键    */    function isKeyExist(string memory tableName, string memory key) external view returns(bool) {        TableFactory tf = TableFactory(0x1001);        Table table = tf.openTable(tableName);        return _isKeyExist(table, key);    }    function _isKeyExist(Table _table, string memory _id) internal view returns(bool) {        Condition condition = _table.newCondition();        return _table.select(_id, condition).size() != int(0);    }}

5.4 其余辅助合约可下载附件

六、基于WeBASE-Front交易解决接口实现文件数据上链

对于基于WeBASE-Front交易解决接口实现文件信息数据上链,次要逻辑是在区块链BaaS接口平台中接管业务方上送的文件地址、文件内容哈希,文件归属信息等其余类业务信息,通过文件地址到业务方OSS平台下载文件,并计算文件内容哈希与业务方上送的文件内容哈希进行校验,避免上链前的文件内容篡改,校验通过后将下载的文件存储至IPFS,将IPFS返回的寻址哈希,与业务上送的其余信息,组装发送区块链的交易报文,智能合约采纳CRUD形式,表中预留扩大字段,可将接口平台从新计算的文件内容哈希和IPFS寻址哈希存到预留扩大字段,按此组装发送交易到区块链的交易报文,调用WeBASE-Front前置服务的发送交易接口,由WeBASE-Front调用WeBASE-Sign进行交易云签名,而后发送交易到区块链节点,实现文件信息的上链。
WeBASE-Front发送交易接口的调用可参考本作者的另一篇文章《基于WeBASE-Front前置服务发送交易REST接口调用可降级的智能合约计划》。