您的位置:永利国际官网登录 > 永利国际开户 > 任天堂Switch最高支持拓展256GB,上运行的

任天堂Switch最高支持拓展256GB,上运行的

发布时间:2019-07-22 09:38编辑:永利国际开户浏览(98)

    Energy Sistem并不是什么大厂,不过最近放出的这2款PMP倒是相当的不错。Inngenio 4000 DUET HDP M-EX为稍高端的款型,2.8"屏,6GB容量,miniSD卡扩展,FM收音,除了常规的影音格式外还支持Xvid视频回放。5000 HDP M-EX的容量缩减为2GB,标准SD卡扩展,不过LCD屏幕扩大到了3.5",可惜不是触摸屏,不入流哪。这2款机型现已在欧洲发布,Inngenio 4000开价€155,5000则只要€120。

    任天堂Switch最高支持拓展256GB 不怕容量不够用

    来源:乐游整理 日期:2017/1/14 10:34:03 作者:乐游 962乐游网 → 首页 → 游戏资讯 → 游戏新闻 → 任天堂Switch最高支持拓展256GB 不怕容量不够用

    [乐游网导读]有玩家爆料Switch版《赛达尔传说》占了主机一般容量,对于NS32GB的容量确实有点寒酸,不过有任天堂曝光了Switch扩展容量,玩家可以安装256GB拓展卡。

    有玩家爆料Switch版《赛达尔传说》占了主机一般容量,对于NS32GB的容量确实有点寒酸,不过有任天堂曝光了Switch扩展容量,玩家可以安装256GB拓展卡。

    图片 1

    随着大量情报的公开,我们已经知道,任天堂Switch主机仅有32 GB的内置存储。

    这对于一款家用机来说捉襟见肘,同行已经飙升到了500GB和1T,而32G对于大多数用户来说,也是远远不够的。

    但幸运的是,Switch的游戏体积都不会太大,而玩家也将能够使用microSD卡来实现扩展。那么任天堂Switch到底能够支持多大的扩展呢?

    在今天的Treehouse Live直播中,任天堂方面证实,Switch支持microSDXC卡,也就是说,最高可以支持256 GB的扩展数据。

    这对于玩家来说是个好消息。

    从 SAP HANA 数据库访问 HDP 上的数据用以执行分析

    按照下面的步骤,从 SAP HANA 访问存储在 HDP 上的数据。

    1. 在 SAP HANA Studio 中添加 SAP HANA 2.0 服务器,,如图 3 所示。

      ##### 图 3. 为 SAP HANA Studio 配置一个测试 SAP HANA 服务器

      图片 2

    2. 从 HANA Studio,创建一个新的远程连接来连接到在 HDP 上运行的 Hive Server2,并访问 Hive 表。

      • 在 HANA Studio 窗口中,单击 Open SQL Console for HANA system。HANA SQL 控制台显示在右侧窗格上。
      • 输入以下 SQL 查询,创建一个从 SAP HANA 到 HDP 的新连接。根据您的环境更改名称和 IP 地址。
        <table>
        <colgroup>
        <col style="width: 100%" />
        </colgroup>
        <tbody>
        <tr class="odd">
        <td><div class="container">
        <div class="line number1 index0 alt2">
        <code class="htmlscript plain">CREATE REMOTE SOURCE &quot;HDP Demo&quot; ADAPTER &quot;sparksql&quot;     </code>
        </div>
        <div class="line number2 index1 alt1">
        <code class="htmlscript plain">CONFIGURATION 'port=7860;ssl_mode=disabled;server=xx.xx.xx.xx'        </code>
        </div>
        <div class="line number3 index2 alt2">
        <code class="htmlscript plain">WITH CREDENTIAL TYPE 'PASSWORD' USING 'user=hanaes;password=hanaes';</code>
        </div>
        </div></td>
        </tr>
        </tbody>
        </table>
    
        创建了一个名为 *HDP Demo* 的新远程连接。
    
    -   单击该远程连接,探索 Hive 数据库和其中的表。
    
    ##### 图 4. 创建一个新的 HDP 远程连接来探索 Hive 数据库和表
    
    ![](https://www.linuxidc.com/upload/2017_10/171027134384554.png)
    
    1. 在 HANA DB 下为 Hive 表创建一种新模式并创建虚拟表。在 SQL Console 下运行以下 SQL 查询。这将创建一种新模式(名为 hdp)。
    <table>
    <colgroup>
    <col style="width: 100%" />
    </colgroup>
    <tbody>
    <tr class="odd">
    <td><div class="container">
    <div class="line number1 index0 alt2">
    <code class="htmlscript plain">create SCHEMA hdp OWNED BY SYSTEM;</code>
    </div>
    </div></td>
    </tr>
    </tbody>
    </table>
    
    ##### 图 5. 创建一种新模式
    
    ![](https://www.linuxidc.com/upload/2017_10/171027134384555.png)
    
    1. 为您想访问并分析其数据的 Hive 表创建 HANA 虚拟表(在新创建的模式下)(如图 6、图 7 和图 8 所示)。

      ##### 图 6. 在 SAP HANA 上创建一个虚拟表

      图片 3

      ##### 图 7. 在 SAP HANA 上创建一个虚拟表

      图片 4

      ##### 图 8. 在 SAP HANA 上创建一个虚拟表

      图片 5

    2. 通过虚拟表访问数据并开始分析。可以使用 HANA Studio 上的 Visualization 选项卡执行各种各样的数据可视化。

      ##### 图 9. 通过 HANA 虚拟表访问 Hadoop 上的数据

      图片 6

      ##### 图 10. 通过 HANA 虚拟表在 Hive 表上执行查询

      图片 7

      ##### 图 11. 通过 HANA 虚拟表对来自 Hive 表的数据执行可视化

      图片 8

      ##### 图 12. 通�� HANA 虚拟表对来自 Hive 表的数据执行可视化

      图片 9

      ##### 图 13. 通过 HANA 虚拟表对来自 Hive 表的数据执行可视化

      图片 10

    在 IBM Power 服务器上结合使用 SAP HANA 的内存处理能力和 Hadoop 的大数据处理能力。

    结束语

    本文介绍了如何设置一个测试环境,SAP HANA 可在该环境中连接到完全在 IBM Power Systems 上运行的 HDP。SAP HANA 能通过 Hive 表连接到并访问存储在 HDFS 上的数据。我们使用了 SAP HANA Studio 作为客户端来访问并可视化来自 HDP 的数据。使用纵向扩展和横向扩展 POWER8 服务器提供了两种部署模型。

    安装并配置 SAP HANA Spark Controller

    执行以下步骤来安装并配置 SAP HANA Spark Controller:

    1. 从 SAP Software Download 下载 Spark Controller。
    2. 按照 Spark Controller 安装和配置指南进行操作。
    3. 在多节点 HDP 集群上,SAP HANA Spark Controller 只能安装在一个节点上。可以考虑将它安装在运行 Ambari、Name Node 和 YARN Resource Manager 的节点上。必须配置该节点来与 Hive Metastore 进行通信。
    4. 可以手动或使用 Ambari 安装并配置 Spark Controller。
    5. 启动 Spark Controller 并检查 Spark Controller 日志 (/var/log/hanaes/hana_controller.log),以理解并调试问题(如果有)。
    6. 检查 Spark Controller 是否在运行并在端口 7860(默认端口)上进行监听。
      [root@hdpnode1 conf]# ps -aef |grep -i ^hanaes
      hanaes    6064    1  0 Mar25 ?        02:37:24 /usr/lib/jvm/java-1.8.0-openjdk-1.8.0.111-1.b15.el7_2.ppc64le//bin/java -cp /usr/hdp/current/spark-client/lib/spark-assembly-1.6.2.2.5.0.0-1245-hadoop2.7.3.2.5.0.0-1245.jar::/etc/hive/conf:/usr/hdp/current/spark-client/lib/datanucleus-api-jdo-3.2.6.jar:/usr/hdp/current/spark-client/lib/datanucleus-core-3.2.10.jar:/usr/hdp/current/spark-client/lib/datanucleus-rdbms-3.2.9.jar:mysql-connector-java.jar:mysql-connector-java.jar:/usr/hdp/2.5.0.0-1245/tez/*:/usr/hdp/2.5.0.0-1245/tez/lib/*:/usr/hdp/2.5.0.0-1245/tez/conf:/usr/sap/spark/controller/bin/../conf:/usr/hdp/2.5.0.0-1245/hadoop/conf:/etc/hive/conf:../*:../lib/*:/usr/hdp/2.5.0.0-1245/hadoop/*:/usr/hdp/2.5.0.0-1245/hadoop/lib/*:/usr/hdp/2.5.0.0-1245/hadoop-hdfs/*:/usr/hdp/2.5.0.0-1245/hadoop-hdfs/lib/* -XX:PermSize=128m -XX:MaxPermSize=256m -Xmx8172m com.sap.hana.spark.network.Launcher
      [root@hdpnode1 conf]# netstat -anp | grep LISTEN |grep 7860
      tcp6      0      0 :::7860                :::*LISTEN      6064/java
    图 1. 使用 SAP HANA Spark Controller 与 Hortonworks HDP 集成的 SAP HANA 的横向扩展部署模型

    图片 11

    点击查看大图

    设置测试数据和 Hive 表

    执行以下步骤来准备测试数据。

    1. 下载 MovieLens 数据集(参见参考资料中的介绍)。

      按照操作说明,将 MovieLens 数据集数据复制到 HDFS 并设置 Hive 外部表。为它们使用相同的 hive 用户 ID。

    2. 下载驱动程序数据并提取到本地文件系统中。

    3. 将驱动程序数据复制到 HDFS。

      # su – hive
      # hadoop fs -mkdir -p /user/hive/dataset/drivers
      # hadoop fs -copyFromLocal /home/np/u0014213/Data/truck_event_text_partition.csv /user/hive/dataset/drivers
      # hadoop fs -copyFromLocal /home/np/u0014213/Data/drivers.csv /user/hive/dataset/drivers
      # hadoop fs -ls /user/hive/dataset/drivers
      Found 2 items
      -rw-r--r--  3 hive hdfs      2043 2017-05-21 06:30 /user/hive/dataset/drivers/drivers.csv
      -rw-r--r--  3 hive hdfs    2272077 2017-05-21 06:30 /user/hive/dataset/drivers/truck_event_text_partition.csv
    4. 为驱动程序数据创建 Hive 表。

      # su – hive
      # hive
      hive>create database trucks;
      hive> use trucks;
       
      hive> create table drivers
      (driverId int,
      name string,
      ssn bigint,
      location string,
      certified string,
      wageplan string)
      ROW FORMAT DELIMITED
      FIELDS TERMINATED BY ','
      STORED AS TEXTFILE
      TBLPROPERTIES("skip.header.line.count"="1");
       
      hive> create table truck_events
      (driverId int,
      truckId int,
      eventTime string,
      eventType string,
      longitude double,
      latitude double,
      eventKey string,
      correlationId bigint,
      driverName string,
      routeId int,
      routeName string)
      ROW FORMAT DELIMITED FIELDS TERMINATED BY ','
      STORED AS TEXTFILE
      TBLPROPERTIES("skip.header.line.count"="1");
       
      hive> show tables;
      OK
      drivers
      truck_events
    5. 将数据从 HDFS 中的文件加载到这些表中。

      hive> LOAD DATA INPATH '/user/hive/dataset/drivers/truck_event_text_partition.csv' overwrite into table truck_events;
      hive> LOAD DATA INPATH '/user/hive/dataset/drivers/drivers.csv' overwrite into table drivers;
    6. 交叉检查这些表,确保在这些表上运行查询可获得这些数据。

    本文由永利国际官网登录发布于永利国际开户,转载请注明出处:任天堂Switch最高支持拓展256GB,上运行的

    关键词: 永利国际开户

上一篇:会议上以,Android手机按键发展简史

下一篇:没有了