【OSSチャレンジ】第4回 Elasticsearch紹介

2017.4.21


はじめに

samuel-zeller-118195.jpg

毎年40%以上のペースで増加し、2020年までには50倍にまで増加すると予想されている世界のデータ量。検索エンジンは増え続ける膨大で多様なデータから、ユーザが有益で理解しやすい情報に素早くアクセスする手助けをしており、今後ますますその重要性を増すことと思います。

今回は、そのような検索エンジンの中でも、FacebookやGitHub、Softbankといった著名企業が導入し、商用を含めた検索エンジン業界で最も人気を集めているオープンソースの全文検索エンジン「Elasticsearch(エラスティックサーチ)」についてご紹介します。

Elasticsearchとは

Elasticsearchはドキュメント指向型検索エンジンであり、投入されるデータはJSON形式なのでデータ構造の柔軟性に富んでいます。

また拡張性に優れた設計となっており、マシン1台の場合でも1台構成のクラスタとして起動し、Elasticsearch が起動しているサーバを追加すれば、既存データの分散、レプリカなどが自動で実行されます。

そんなElasticsearchの有用性を少しでも体験するために、今回は弊社が管理しているOpenStackサーバのsshアクセスログを使って、sshによる不正アクセス数やアクセス元の地域情報の分析、集計を行い、ダッシュボードで可視化するところまで行ってみたいと思います。

また本稿はその前編として、Elasticsearchの利用環境を簡単に準備できるElastic Cloudの無料トライアル版を使って、まずはElasticsearchがどのようなものか体験してみることに注力したいと思います。

全体の構成としては以下のとおりとなります。

・Kibana・・・検索結果の可視化、ダッシュボードの作成
・Elasticsearch・・・データの蓄積、検索
・Logstash・・・データの収集、加工、転送

ELK_20170404.png

Elastic Cloudの概要

Elastic Cloudとは、AWS(Amazon Web Services)で利用可能な、マネージド型Elasticsearchのことで、GUI上で簡単にクラスタの作成やサイズ変更などが出来る他、Elasticsearchに格納されているデータをグラフや表で可視化できるツールであるKibanaと連携してデータの可視化も行うことができます。つまり、上記のイメージで示すElasticsearchとKibanaの部分をAWS上で実現するマネージドサービスなのです。

Elastic Cloudの登録

それではさっそくこちらからElastic Cloudの登録をはじめます。

①「トライアル」をクリックします。

ElasticCloud_01.png

②メールアドレスを入力し、「トライアルを始める」をクリックします。

ElasticCloud_02.png

③下記のメールが来るので、「Verify Email and Accept TOS」をクリックします。

ElasticCloud_03.png

④ログインパスワードを設定して、「Set」をクリックします。

ElasticCloud_04.png

⑤クラスタを新規作成します。

ElasticCloud_05.png

⑥クラスタのサイズやデータセンターの数、バージョンなどを設定します。今回はトライアル版なので、デフォルトの設定のまま、画面最下部のName欄にクラスタの名前を入力し、「Create」をクリックします。

ElasticCloud_06.png

⑦下記の画面が出てきてパスワードが表示されるので、コピーして控えておきます。

ElasticCloud_07.png

⑧サイドメニュー欄、「Configuration」をクリックします。

ElasticCloud_08.png

⑨「Kibana」をクリックして有効化し、画面最下部にある「Update」をクリックします。

ElasticCloud_09.pngElasticCloud_10.png

⑩サイドメニューの「Overview」からElasticsearchのURLを確認します。(後ほどLogstashの設定ファイル作成の際に使用します。)

ElasticCloud_11@.png

これでElastic Cloudの登録は完了です。

Logstashの準備

さきほどElastic Cloudで作成したElasticsearchに転送するデータを作成するために、ログ収集管理ツールであるLogstashを用いてデータの収集、加工を行います。

まず、こちらからLogstashをダウンロードしてみます。今回はVersion 5.3.0を使います。

設定ファイルの作成

それではLogstashを動かすための設定ファイルを作成していきます。設定ファイルは大きく分けて下記の3つの部分に分けられます。

 ① input・・・Logstashで加工するデータの入力元を指定する

 ② filter・・・①で入力されたデータの加工方法を指定する

 ③ output・・・②で加工されたデータの出力先を指定する

まずは①のinput部分を作成します。今回Logstashに入力するデータはOpnestackサーバのアクセスログなので、アクセスログファイル(input_file.txt)を指定します。

Logstash_01@.png

input{
 file{
  path => "C:\logstash-5.3.0\input_file.txt"
 }
}

次に②のfilter部分を作成します。今回用いるのはログに記述されているIPアドレスやタイムスタンプといった特定部分を取り出すgrokフィルタと、grokフィルタによって取り出したIPアドレスからアクセス元の地域情報を取得するgeoipフィルタです。

Logstash_02.png

filter{
 grok{
  match =>{
   "message" =>'%{HTTPDATE:date} %{IP:ip}'
  }
 }
 geoip{
  source => "ip"
}
}

なお、filter設定時に用いたgrokフィルタで記述しているパターンに合わせるために、pythonで変換コードを作成してsshのアクセスログから不正なアクセスを示すログだけを抜き出して上記のパターンに整形しています。

【整形前(抜粋)】

Feb 23 06:48:30 ML330_1 sshd[16952]: Invalid user tomcat from 61.31.xx.xx
Feb 23 06:48:30 ML330_1 sshd[16952]: input_userauth_request: invalid user tomcat [preauth]
Feb 23 06:48:30 ML330_1 sshd[16952]: Received disconnect from 61.31.xx.xx: 11: Bye Bye [preauth]
Feb 23 06:48:31 ML330_1 sshd[16989]: Received disconnect from 61.31.xx.xx: 11: Bye Bye [preauth]
Feb 23 06:48:35 ML330_1 sudo:  cinder : TTY=unknown ; PWD=/ ; USER=root ; COMMAND=/bin/cinder-rootwrap /etc/cinder/rootwrap.conf env LC_ALL=C vgs --noheadings --unit=g -o name,size,free,lv_count,uuid --separator : --nosuffix cinder-volumes
Feb 23 06:48:35 ML330_1 sudo:  cinder : TTY=unknown ; PWD=/ ; USER=root ; COMMAND=/bin/cinder-rootwrap /etc/cinder/rootw

【整形後(抜粋)】

23/Feb/2017:06:48:30 -0700 61.31.xx.xx
23/Feb/2017:06:48:49 -0700 61.31.xx.xx
23/Feb/2017:06:49:00 -0700 61.31.xx.xx
23/Feb/2017:06:49:08 -0700 61.31.xx.xx
23/Feb/2017:06:49:08 -0700 61.31.xx.xx

また、grokフィルタにはさまざまなパターンが用意されており、それらを自由に組み合わせてさまざまなデータを取得することができます。詳細はこちらをご確認ください。

次にタイムスタンプの設定を行います。Logstashでは特に指定がない限りLogstashにデータを入力した日時がタイムスタンプに設定されます。リアルタイムに入力する場合はそれでもよいのですが、今回は過去のデータを入力するため、filter設定部分にdateフィルタの設定を追加し、アクセスログに記載されているアクセス日時がタイムスタンプに設定されるようにします。

Logstash_03@.png

filter{
 grok{
  match =>{
   "message" =>'%{HTTPDATE:date} %{IP:ip}'
  }
 }
 date {
  match => ["date","dd/MMM/YYYY:HH:mm:ss Z"]
  locale => jp

 }
 geoip{
  source => "ip"
}
}

最後に③output部分を作成します。今回はElasticsearchに出力するので、Elastic Cloudで作成したElasticsearchのURLやID、パスワードを設定します。

Logstash_04@@@@.png

output {
    stdout { codec => dots }
    elasticsearch {
        action => "index"
        hosts => ["ElasticsearchのURL"]
        index => "sshlog-%{+YYYY.MM.dd}"
        user => "elastic"
        password => "password"
    }
}
Logstashの動作確認

output部分に標準出力を設定してfilter設定の動作確認を行ってみます。Logstash-5.3.0に移動して下記のコマンドを実行します。作成した設定ファイル名をlogstash.confとしています。

【Logstash実行例】 

bin\logstash -f logstash.conf

【Logstash実行結果(抜粋)】

Logstash_05@@@@@.png

{
          "path" => "C:\\logstash-5.3.0\\input_file.txt",
    "@timestamp" => 2017-02-22T16:28:09.000Z,
         "geoip" => {
             "city_name" => "Hanoi",
              "timezone" => "Asia/Ho_Chi_Minh",
                    "ip" => "123.31.xx.xx",
              "latitude" => 21.0333,
         "country_code2" => "VN",
          "country_name" => "Vietnam",
        "continent_code" => "AS",
         "country_code3" => "VN",
           "region_name" => "Thanh Pho Ha Noi",
              "location" => [
            [0] 105.85,
            [1] 21.0333
        ],
             "longitude" => 105.85,
           "region_code" => "64"
    },
}

期待どおり、入力したアクセスログからアクセス日時とアクセス元の地域情報が取得出来ています。これは、ベトナムの首都ハノイからの不正アクセスのようですね。

マッピング定義

マッピング定義とは、Elasticsearchに投入されるデータのフィールドやデータ型を定義することです。(リレーショナルDBのテーブル定義にあたります)

またその他にも検索精度(部分一致/完全一致など)の各種設定も行うことができます。Elasticsearchはスキーマレスであることが特徴の一つであり、基本的には自動でデータ型や解析設定をしてくれるのですが、データ型が誤っていたり、最適な検索精度ではなかったりする場合があるので、今回はマッピング定義することによって明示的に上記の設定を行います。

まずは「Overview」を選択後、KibanaのURLをクリックしてKibanaにログインします。

kibana_1@.png

user: elastic
pw: Elastic Cloudの登録の⑦で控えたパスワード

kibana_2@.png

次に、「Dev Tools」を選択し画面左側の欄にマッピング定義を記述します。

kibana_3@.png今回は下記のマッピング定義を行っています。まず、フィールドに対してテンプレート化を定義するダイナミックテンプレートを用いて、string型のフィールドをまとめて形態素解析を行わない設定にしています。

また、今回は不正アクセス元の地域情報を分析するので、Kibanaにおいて地図上でデータを可視化するための特殊なデータ型であるgeo_point型を"geoip.location"フィールドに定義します。

kibana_5@@.png

PUT _template/sshlog-template
{
  "template" : "sshlog-*",
  "mappings": {
    "logs": {
      "dynamic_templates" : [
        {
          "my_multi_strings" : {
            "match_mapping_type" : "string",
            "mapping" : {
              "type" : "keyword"
            }
          }
        }
      ],
      "properties": {
        "geoip.location": {
          "type": "geo_point"
        },
        "timeRange":{
          "type": "integer"  
        }
      }
    }
  }
}

最後にマッピング定義記述部分の右上にある実行ボタンをクリックします。画面右側に"acknowledged":trueと表示されればマッピング定義は完了です。なお、マッピング定義内にシンタックスエラー等があるとこの時点でエラー内容が表示されます。

kibana_7@.png

データの転送

それではいよいよLogstashを実行してElasticsearchにデータを転送します。logstash.confのoutput部分にElasticsearchを設定しているので、下記のコマンドを実行することでElasticsearchにデータが転送されます。

【Logstash実行例】 

bin\logstash -f logstash.conf

Kibanaの設定

データの転送が完了したところでKibanaの設定を行います。まずインデックスパターンの設定を行います。「Management」を選択後、「Index name or pattern」にlogstash.confのoutput部分で記述したインデックス名、もしくは正規表現を含むインデックスパターンを入力します。

次に、「Time-field name」に時間の参照先となるフィールドを指定します。date型のフィールドがプルダウンで選択できるようになっているので、今回は@timestampを選択し、最後に「Create」ボタンをクリックします。

kibana_8.pngインデックスのフィールドごとの設定一覧が表示されます。"geoip.location"フィールドのデータ型がgeo_pointになっていることが確認できます。

kibana_9@.png

次に可視化するデータの期間を設定します。「Discover」を選択して、画面右上の時計のマークをクリックします。

kibana_10.png

今回は2017年2月20日から2017年3月19日までの期間のアクセスログなので、設定方法として「Absolute」を選択後、日付設定部分で上記の期間を設定し「Go」をクリックします。

kibana_11.png設定した期間の不正アクセス数が棒グラフで表示されました。

kibana_12.png

Visualizationの作成

ここまでのKibanaの設定でデータの形式や検索、分析対象期間の設定が完了しましたので、あとは検索、分析した結果をどのような表現形式で可視化するのかを設定します。

「Visualize」を選択後、「Create a visualization」をクリックします。

kibana_13.pngまずは、時系列で不正アクセス数の推移を確認したいので、「Line chart」を選択します。

kibana_14.png「Name」で対象のインデックス名、あるいはインデックスパターンを選択します。

kibana_15.png不正アクセス数を縦軸に、日付を横軸にしたグラフを作成したいので、縦軸を設定する「Y-Axis」のAggregation欄に「Count」を選択し、横軸を設定する「X-Axis」のAggregation欄に「Date Histogram」、Field欄に「@timestamp」、Interval欄は「Daily」を選択します。

最後に右矢印ボタンをクリックして設定を反映させます。

kibana_16@.png画面右側に不正アクセス数を示す時系列折れ線グラフが表示されました。また、画面下中央の矢印ボタンをクリックすると横軸で指定した単位毎(今回の設定の場合は日毎)のカウント数がリスト形式で追加表示されます。

kibana_17@.png
最後に、画面上部の「Save」を選択し、名前を付けてSaveボタンをクリックすると作成したVisualizeの保存が完了です。

kibana_18.pngそれでは続いて不正アクセス元の地域情報を分析するために、「Vertical bar chart」を選択します。

kibana_20.png「Y-Axis」のAggregation欄に「Count」を選択し、「X-Axis」のAggregation欄に「Terms」(Field欄で指定する単語ごと)、Field欄に「geoip.country_name」(国名)、Order欄は「Descendig」(降順)、Size欄は「20」(20番目まで)とします。

kibana_21.png今回使用したアクセスログでは、2位のベトナムにダブルスコアの差をつけて中国からの不正アクセスが最も多いという結果になりました。なお、Field欄を「geoip.city_name」(都市名)に変更すると、都市ごとのグラフを作成することもできます。

それでは今度は不正アクセス元の地域やアクセス数をさらに視覚的に分かりやすくするために、地図上に表示してみましょう。「Tile map」を選択します。

kibana_19.png「Geo Coordinates」を選択して、Aggregation欄には「Geohash」、Field欄には「geoip.location」が選択されていることを確認して矢印ボタンをクリックします。

kibana_28.png地図上に不正アクセス元の地域とアクセス数が表示されました。やはり中国、ベトナムあたりからのアクセスが特に多いことが分かります。

ダッシュボードの作成

最後に、作成したVisualizationの配置を行いダッシュボードを作成します。「Dashboard」を選択し、「Create a dashboard」をクリックします。

kibana_22.png下記の画面が表示されるので、文中の「Add」をクリックします。

kibana_23.png作成したVisualizationが表示されるので、それらを選択します。

kibana_18@@.png選択したVisualizationがダッシュボードに追加されるので、サイズや表示位置を自由に変更しながらレイアウトを調整します。なお、各Visualizationの設定を変更した場合、ダッシュボード上に配置したVisualizationにも結果が自動的に反映されます。

kibana_27.png

おわりに

今回はElastic Cloudを使ってElasticsearchをどのようにして使うのかという点を中心に紹介しました。

次回は実際にElasticsearchのサーバ環境を一から構築する過程を紹介しながら、どのようにして環境を構築していくか、という点を中心に紹介したいと思います。

ここまでお付き合いいただきありがとうございました。

文:坂部公彦

joao-silas-72563.jpg

参考サイト

http://blog.johtani.info/blog/2014/11/21/import-apache-accesslog-using-logstash/

https://medium.com/hello-elasticsearch/elasticsearch-9a8743746467

https://www.skyarch.net/blog/?p=9709

 



OSSと同じカテゴリーの記事


ログ解析と同じカテゴリーの記事



RSS
最近のエントリー
2017.4.21
【検証自動化】第6回 AT-CLabを使ってみる
2017.4.21
【OSSチャレンジ】第4回 Elasticsearch紹介
2017.4. 7
【OSC2017 Tokyo/Spring】OpenStackを宇宙で!?
2017.3.28
【OSSチャレンジ】 第3回 Bacula紹介:後編
2017.3. 9
【OpenStackチャレンジ】 第29回 Ocata紹介編
2017.2.24
【OSSチャレンジ】 第2回 Docker紹介編
2017.2.20
【OSSチャレンジ】 第1回 Bacula紹介:前編
2017.2. 1
【体験記】最後のフロンティア!? ~ミャンマー 体験記~
2017.1.18
【データベース】pgpool-IIによるDBサーバ負荷分散
2016.12.16
【ログ解析】第2回Splunkのログ解析
2016.12. 9
LPIC304 体験記
2016.11.19
【OSC2016 Tokyo/Fall】VRとOpenStackを連携
2016.11.11
【次世代通信技術】 第1回 5G入門編
2016.10.28
【ログ解析】第1回Splunkの紹介と起動
2016.10.21
【OpenStackチャレンジ】 第28回 Stackalytics登録編
2016.10.14
【OpenStackチャレンジ】 第27回 OpenStack Newton紹介編
2016.10. 7
【検証自動化】第5回 Selenium IDEで記録したテストをJenkinsのジョブから実行する ~PC一台でブラウザテストを自動化~【後編】
2016.9.30
【OpenStackチャレンジ】 第26回 Neutron環境構築編
2016.9.23
【いまさら聞けない!エンジニアの基本シリーズ】 第6回 きれいなログにするためのLinuxお作法
2016.9.16
【OpenStackチャレンジ】 第25回 Nova環境構築編
2016.9. 9
【OpenStackチャレンジ】 第24回 Cinder環境構築編
2016.9. 2
【OpenStackチャレンジ】 第23回 OpenStackコミュニティ~翻訳編
2016.8.26
【OpenStackチャレンジ】 第22回 Glance環境構築編
2016.8.19
【検証自動化】第4回 Selenium IDEでテストケースを記録・実行する ~PC一台でブラウザテストを自動化~【前編】
2016.8. 9
【OpenStackチャレンジ】 第21回 OpenStackコミュニティ 日本語翻訳チーム参加編
2016.8. 5
【OpenStackチャレンジ】 第20回 構成管理ツール「Ansible」を用いたOpenStack上のサーバ構築
2016.7.29
【検証自動化】第3回 IT検証フォーラム2016に出展しました!
2016.7.22
【OpenStackチャレンジ】 第19回 OpenStack Upstream Training編
2016.7.15
【検証自動化】第2回 TestShell+TestCenter連携編
2016.7. 8
【OpenStackチャレンジ】 第18回 HEAT紹介編
2016.7. 4
QNAP紹介(Dockerコンテナ&OpenStack Swift連携)
2016.6.26
【いまさら聞けない!エンジニアの基本シリーズ】 第5回 GitHubを使いこなそう
2016.6.19
【OpenStackチャレンジ】 第17回 Zabbix環境構築編
2016.6.12
【検証自動化】第1回 TestShell編
2016.6. 5
【OpenStackチャレンジ】 第16回 Mirantis 「OpenStack FUEL管理」セミナー紹介編
2016.5.29
【OpenStackチャレンジ】 第15回 Swift環境構築編
2016.5.22
【OpenStackチャレンジ】 第14回 Keystone環境構築編
2016.5.15
【OpenStackチャレンジ】 第13回 Mirantis OpenStack紹介編
2016.5. 2
【OpenStackチャレンジ】 第12回DevStack~ Ironic環境構築編
2016.4.24
【OpenStackチャレンジ】 第11回 インフラエンジニア必見のOpenStackセミナーを開催しました!
2016.4.17
【OpenStackチャレンジ】 第10回 OpenStack Mitaka紹介編
2016.4.10
【Linuxを使いこなす】 CentOSのローカルリポジトリを構築しよう
2016.4. 3
【OpenStackチャレンジ】 第9回 仮想マシンが起動するコンピュートノードを指定してみよう
2016.3.29
【OpenStack チャレンジ】 第8回 ゲストマシンの性能比較をしてみました!
2016.3.19
【OSC2016】第3回 ChatOpsでOpenStackをAPIから制御する
2016.3.12
【OSC2016】第2回Let'sChat Hubot編
2016.3. 4
【OSC2016】第1回ChatOpsの構築
2016.1.31
【OpenStackチャレンジ】 第7回 DevStack~All-In-One Single Machine編
2016.1.22
【OpenStackチャレンジ】 第6回 policy.json紹介編
2016.1.13
【OpenStackチャレンジ】 第5回 Ceilometerについて知ろう!
2016.1. 8
【いまさら聞けない!エンジニアの基本シリーズ】 第4回 VMware基本動作編
2015.12.24
【1年間ありがとう!】2015年度エンジニアブログ アクセスランキング発表!
2015.12.18
【SDNチャレンジ】 第29回 Mininet編
2015.12.14
【いまさら聞けない!エンジニアの基本シリーズ】 第3回 VMwareインストール編
2015.12.10
【OpenStackチャレンジ】第4回 ConoHaでOpenStack環境を構築!
2015.12. 4
【いまさら聞けない!エンジニアの基本シリーズ】 第2回 VirtualBox基本動作編
2015.12. 4
【OpenStackチャレンジ】 第3回 OpenDaylight(Lithium)との連携に挑戦!
2015.11.27
【いまさら聞けない!エンジニアの基本シリーズ】 第1回 VirtualBoxインストール編
2015.11.20
【SDNチャレンジ】 第28回 WiresharkでOpenFlowを解析しよう!
2015.11.15
OpenStackの技術者認定資格「OPCEL認定試験」に合格しました!
2015.11. 9
「Windows Server 2003」から「Windows Server 2012 R2」への移行に不安を抱えるお客様へ
2015.11. 6
【SDNチャレンジ】 第27回 OpenMUL編
2015.10.30
【SDNチャレンジ】 第26回 ONOS-BGPルータ編
2015.10.23
【SDNチャレンジ】 第25回 ONOS GUI編 / [告知]10/24(土),25(日)にOSCに出展します!
2015.10.16
【SDNチャレンジ】 第24回 ONOSインストール編
2015.10. 9
【SDNチャレンジ】 第23回 OpenDaylightユーザ会に参加しました/Lithiumインストール編
2015.10. 2
【SDNチャレンジ】 第22回 Trema-edge編
2015.9.29
【OpenStackチャレンジ】 番外編 10/26(月)からLPI-Japanの「OPCEL認定試験」がスタートします!
2015.9.25
【SDNチャレンジ】 第21回 POX編
2015.9.18
【OpenStackチャレンジ】 第2回 コンポーネント紹介編
2015.9.11
【SDNチャレンジ】 第20回 Floodlight編
2015.9. 4
【OpenStackチャレンジ】 第1回 OpenStackインストール編
2015.9. 3
【ウェブサイトのロードテストをする】 最終回 Siege編
2015.8.28
【SDNチャレンジ】 第19回 Raspberry Piでユースケースに挑戦!
2015.8.21
【SDNチャレンジ】 第18回 OF-Patch動作編
2015.8.13
【SDNチャレンジ】 第17回 OF-Patch紹介編
2015.8. 7
Windows10をインストールしてみました!
2015.8. 4
【ウェブサイトのロードテストをする】 第3回 Tsung編
2015.7.31
【SDNチャレンジ】 第16回 Ryuコントローラインストール編
2015.7.25
【SDNチャレンジ】 第15回 Open vSwitch性能試験編
2015.7.17
【SDNチャレンジ】 第14回 Tcpreplay編
2015.7.17
RedHat OpenStack 管理者認定試験に合格しました!
2015.7.11
【SDNチャレンジ】 第13回 Vyattaコントローラ REST API編
2015.7. 3
【SDNチャレンジ】 第12回 Vyattaコントローラ動作編
2015.7. 1
【ウェブサイトのロードテストをする】 第2回 curl-loader編
2015.6.26
【SDNチャレンジ】 第11回 OpenDaylight動作編②
2015.6.19
【SDNチャレンジ】 第10回 OpenDaylight動作編①
2015.6.18
【ウェブサイトのロードテストをする】 第1回 Apache JMeter編
2015.6.12
【SDNチャレンジ】 第9回 リピーターハブとラーニングスイッチの動作比較編
2015.6. 5
【SDNチャレンジ】 第8回 Tremasharkインストール編
2015.5.25
【SDNチャレンジ】 第7回 帯域制御・ファイアウォール・パケット書換え編
2015.5.22
【SDNチャレンジ】 第6回 ラーニングスイッチ作成編
2015.5.15
【SDNチャレンジ】 第5回 Raspberry Pi2にOpen vSwitchをインストール
2015.5. 8
【SDNチャレンジ】 第4回 5/13(水)、14(木)、15(金)の展示会にて検証自動化デモを実施します!
2015.4.27
【SDNチャレンジ】 第3回 Tremaリピーターハブ編
2015.4.21
【SDNチャレンジ】 第2回 OpenFlowコントローラ作成編
2015.4.14
【SDNチャレンジ】 第1回 Tremaインストール編
2014.8.20
【注意!】8月13日のWindows Updateを適用すると起動できなくなる事例が報告されています!
2014.5.23
約6割の企業が悩んでいるのに、対策しないんですか...?
2014.1. 9
新年あけましておめでとうございます。
2013.12.24
2013年エンジニアブログ アクセスランキング発表!
2013.12.17
コミュニケーション「活性化」の第一歩
2013.10.29
なぜ儲かっているのか分からない!?
2013.10.15
「何を変えるのか、何に変えるのか、どのように変えるのか」
2013.9.17
ブラック企業にドラッカーがアドバイスするとしたら?
2013.9. 4
蟻の穴から堤も崩れる
2013.8. 6
派閥じゃなくて、理念の元に仕事をしよう!
2013.7.31
知識は使ってナンボです!
2013.7.30
御社の相互理解度はどれくらい?
2013.7. 3
何故、それが読まれたか~上半期・エンジニアブログ閲覧数ランキング~
2013.6.12
「何」を知っているかではなく、「誰」が知っているか
2013.5.28
戦後、人間尊重の信念を貫きとおした1人の経営者がいた!
2013.5.24
健康な心が、健康な会社を作る。
2013.4.26
『社長にはもうついていけません・・・』
2013.4.23
仕事と生活をバランスさせるには?
2013.4. 2
組織に必要なのは「ゆらぎ」と・・・?
2013.3.21
代表小林、バングラディシュの地に再度降り立つ
2013.3.14
色々作っちゃいました!
2013.3. 5
「心のバランスシート」に着目していますか?
2013.2. 6
Office2013発売!で、何が変わった?
2013.2. 1
「想いを語る夕べ」が新宿から30分の場所で開催可能に!
2012.12.25
エンジニアブログ番外編:決戦は「ひなたかなた」
2012.12.19
2012年エンジニアブログ&Facebook閲覧数ランキング発表!
2012.11.29
プロセス見直すのはいいけれど...大事なこと忘れてません?
2012.10.31
「仕事」と「個々の生活」の両立~ワーク・ライフ・バランス~
2012.10.26
Windows8発売!で何が起こる?
2012.10. 9
腹が減っては打ち合わせは出来ぬ?~アドック近辺ランチスポット・カフェ編~
2012.10. 2
iPhone5発売!LTE普及には切実な背景が...
2012.9.12
「だれを選ぶか」をまず決めて、その後に「何をすべきか」を決める。
2012.8.17
会社を回すのに大事な3つの感覚。
2012.8. 7
プロジェクトはたいてい失敗に終わるんです。
2012.7.19
『目の前に壁があったら、突き破るしかねえんだよ』by鬼塚
2012.7. 2
大手企業も多数協賛する「東京経営塾」の塾長とは!?
2012.6.15
メンタルヘルスケアジャパン2012報告!
2012.6. 4
御社の理念浸透力はどれくらい?!
2012.5.14
メンタルヘルスケアジャパン2012参加のお知らせ
2012.4.27
東京スカイツリーと地デジとADOC
2012.4.17
マイボトル・マイカップキャンペーン/エンジニアブログ1周年記念
2012.3.14
第1回「想いを語る夕べ」体験会レポート~伝えることの難しさ~
2012.2.29
想いを語る夕べ報告書を新聞にしちゃいました!
2012.2. 6
月刊『ニュートップリーダー』に記事掲載&"想いを語る夕べ"体験会やります!
2012.1.31
【第4回】想いを語る夕べ~フォロー編~
2012.1.23
タニタの社員食堂は"トップの想い"から生まれた!?
2012.1.13
【第3回】想いを語る夕べ~実施編~
2011.12.27
オフィスで簡単エクササイズ!
2011.12.13
【第2回】想いを語る夕べ~準備編~
2011.11.24
【第1回】想いを語る夕べ~誕生編~
2011.11.17
「責任感だけで仕事をしていた・・・。」が「自らサービスを作り上げ、喜びを感じたい!」という熱い想いに変わるまで
2011.11. 8
アドックインターナショナルはGoogleのまわし者!?
2011.10.11
あなたのその行動、誰かに監視されてませんか?
2011.9.28
たったこれだけのことで、チームに一体感が生まれる!?
2011.9.22
ADOCersがITS健康保険組合の野球大会に出場します!
2011.9.21
アドックに入社するとコンサートホールで歌えてグァムに行けるってホント?
2011.8.30
アドック社員元気の素!?
2011.8.16
電力使用制限発動!罰金は100万円!?PC電力管理ソフトのススメ
2011.8. 9
「ネットトラブル調査隊」対象エリア拡大しました!(後日談付き)
2011.8. 1
Windows7にはメールソフトが付いてない!?
2011.7.22
「社長の想いを語る夕べ」プログラムのご紹介
2011.7.12
64ビット版Windowsへの移行について
2011.7. 8
検証やテストを自動化する際に気を付けなければいけない3つの事
2011.7. 5
地デジと周波数再編とADOC
2011.6.29
アドックインターナショナルの節電対策とスーパークールビズ
2011.6.27
あるレンタカー事業会社のケース
2011.6.20
ラボルームのご紹介
2011.6.17
Interop Tokyo 2011に行ってきました!
2011.6. 7
ADOCの保守サービスと震災対応
2011.5.31
"メンタルヘルスケア・ジャパン2011"レポート
2011.5.19
「おばあちゃん家」
2011.5.11
スマートフォンは急速に普及している・・・?
2011.5. 9
ADOCの品質改善活動への取り組み事例をご紹介
2011.4.19
ADOCのお花見と節電への取り組み
2011.4. 6
復興支援のため東北へ向かっていた弊社の社員2名が戻ってきました!その2
2011.3.31
復興支援のため東北へ向かっていた弊社の社員2名が戻ってきました!
2011.3.28
弊社パートナーが被災地支援のサービス開始
2011.3.25
震災により表面化した携帯通信網の弱さ
2011.2.28
エンジニアブログスタートのお知らせ
カテゴリー
月別アーカイブ

<