• ベストアンサー
※ ChatGPTを利用し、要約された質問です(原文:またまたこづかい帳です~)

こづかい帳作成の注意点と時間データの集計方法

terra5の回答

  • terra5
  • ベストアンサー率34% (574/1662)
回答No.3

らちがあかないので、そろそろ逃げます(^^;; やろうとしていることをうまく文章にまとまめられないと、こういう場では私には対応は無理です. また、文章でないにしても、具体的にこういうデータでこういうスクリプトで処理するとこうなったが、 どこを直せばよいかとか. 今のだと、入力データも出力結果も実際に使ったスクリプトも判らなくて,判断できません. 現状だと、おそらく直接会っていろいろ話ながら数時間かかると思います。 前回の内容からすると,やることが飛躍的に増えすぎていて収集つかなくなっているようにも感じますので、 もう少しやりたいことを絞り込んでやり直したほうがいいと思います.

heikekaori
質問者

お礼

うん。ありがとね。色々教えてくれてほんと嬉しかったよ☆ 残念だけど(:_;)またいつか整理して現れます~♪ ほんとにさんきゅ~~~~~ PS.同じ人に「良回答」と「次点」どっちも付けられないんだね。   terra5さんに気持ちの上では30POINT!!!

関連するQ&A

  • こづかい帳のような集計のアルゴリズムって?

    こんばんは。gawkとbashを用いてlogの集計を行っています。 その際にお小遣い帳のような機能を実現することがなかなか出来ずに 困っています。perlだったら、ネットでもかなり情報が豊富だし、 書籍も多いと思うけど、awkってUNIXの基本的な知識ってことでUNIX管理系の 書籍にちょこっと載ってるってケースが多いですよね。それか ものすごく分厚い本でなかなかなじめないようなのとか。。。助けて下さい。 例えば 1/1 gohan 1000 1/1 kaimono 5000 1/1 kaimono 2000 1/2 karaoke 3500 1/2 gohan 1200 1/2 gohan 1500 といったデータがあったとして、これを 1/1 gohan 1000 1/1 kaimono 7000 1/2 karaoke 3500 1/2 gohan 2700 のように集計したいのです。月日の部分を基点にして、1/1の部分についてだけ for(i in count)の形式を用いて集計する。その後1/2の部分について集計する。 というのをずーっと続けていくには、どのようなスクリプトを書けば いいんですか?教えて下さい。どうかお願いします。

  • VB2005で重複件数を調べたい

    VB初心者ですがUNIXコマンドの『uniq -c』のような重複件数を 出力して重複行を1行だけ出力したいのですがどう書けばよいのでしょうか? 【DATA】 3010 3020 3010 3011 3010 【処理結果】 3010,3 3011,1 3020,1 ご教授おねがいします。

  • awkで列を集計するシェルについて

    シェル初心者です。教えてください。 ログファイルが10万行超えるものでシェルにて集計することになり、下記のような集計ができればと思っています。 商店名 商品名  価格 A商店 りんご   100 B商店  ぶどう 300 A商店  みかん 150 C商店  りんご 100 A商店  りんご 100 B商店  みかん 150 C商店  りんご 100 C商店  ぶどう 300 ※各列はブランク(空白)によって区切られ、改行済みで行数は10万行以上 (1)awk '{print $1}' | uniq -d (重複した商店の抽出) (2)awk '{print $2}' | uniq -d (重複した商品名の抽出) (1)、(2)の抽出を満たす「価格」の合計を"集計結果”として > shukei.txt などに出力したいと思ってます。 VBAでいれば、firlterしsumifして合計するようなイメージのものです。 ご教授お願い致します><

  • Linuxコマンドのエラーについて

    こんにちは。会社の前任者より引継ぎ、初めてのLinuxコマンドに苦戦しています。 tracklist.csvというファイルの中に、8桁の数字が上から下に向かってたくさん入力されています。 その中から重複データを抽出するために、Cygwinというツールで以下のコマンドを入力し、duplicate.txtに重複データを抽出しようとしてますが、データが0件でファイルが抽出されます。 $ cat tracklist.csv l sort -n l uniq -d >duplicate.txt cat: invalid optin --d Try 'cat --help' for more information 重複データは必ず含まれているはずですので、Hitしないはずがないのですが。。。。 説明が少なく申し訳ございません。これで原因がわかるようでしたら、回答を教えてください。 よろしくお願いいたします。

  • UNIXで文字列操作

    あるログファイルを整理しているのですが知識が無く困ってます。 A A B C というログファイルの重複部分のみ消去したいのですが一般的なコマンドで可能でしょうか?catしてsortして整理まではできたのですが重複文字列をどのように消せば良いでしょうか? データ数は2万行ほどです

  • webalizerのログを再集計したいのですが・・

    知人に頼んで、サイトのアクセスログ解析にwebalizerを使用して毎日決まった時間に集計するよう設定してもらいました。 ある日うまくログ解析できなかったため、自分なりに調べてwebalizerを実行した所、一部の集計データが消えてしまいました! 具体的な状況は以下になります。 8月9日に8月8日のログが集計されていない事を確認 ※この時点で8月1日~7日の集計データは表示されていました。 ↓ webalizerの再実行 ↓ 8月8日の集計データは表示されたが、8月1日~7日の集計データが消失。 ↓ 現在は正常に作動中。但し8月1日~7日は消えたまま、8日以降のデータしか表示されない。 なんとかログを再集計して、8月1日~7日のデータを表示したいのですが どのようにすればよいでしょうか? webalizerはぜんぜん理解していないため、非常に困っております・・・。

  • CSVファイルの重複チェック

    あるデータがあり、そのデータが毎日増えていくと仮定します。 (もともと元データが100件あって、毎日10件づつ増えていくようなイメージ) 毎日10件づつ増えていくデータの中で、もともとあった100件と 重複しているものがあるかどうかのチェックを効率的に行いたいと考えています。 イメージとしては元データはaccessかエクセル上に存在していて、 毎日増えていくデータをCSVインポートか何かで取り込んで、 マクロか何かでチェックをかけると、 重複しているかどうかのチェックをかけてくれるような仕組みが無いか探しています。 (重複していないものの一覧をエクスポート および 重複していないものを元データに追加してくれる とかいう処理があるとよりありがたいです) 手動でやると大変なので、そういったことが出来るツールなど フリーソフトでご存知の方、もしくはエクセルマクロで簡単に出来るよ といったアドバイスいただけると大変助かります。 WEBシステムでももちろん結構です。 質問の中で不明確な点がありましたら追加で補足しますのでご指摘ください。

  • 自宅の公開サーバへのアクセス元IPの解析を以下のスクリプトで行おうと考

    自宅の公開サーバへのアクセス元IPの解析を以下のスクリプトで行おうと考えております。 これをcronで自動化したいのですが、cronで実行するとawk以下のコマンドの実行結果が空になり、本文に組み込まれません。日本語は正しく表示されています。 rootで実行した場合は、すべての結果が正しくメール送信されてきます。 Linux初心者なため、詳しい方からのアドバイスをお待ちしております。 以上、よろしくお願いいたします。 ~~~~~~スクリプト~~~~~~~~~ #!/bin/bash # 初期設定(環境変数、メール送信宛先、件名、コマンド) export LANG=ja_JP.UTF-8 address="hogehoge@hoge.com" subject="Webアクセス解析" LOG=./log/http_analyze.log cmd="cat $LOG" awk '{print $1}' /var/log/httpd/access_log | sort | uniq -c | sort -r > $LOG 2>&1 # 件名の文字コードをJISに変換 #subject=`echo $subject | nkf -j` subject=`echo $subject` # メール送信(コマンド結果はSJISに変換) mail -s "$subject" $address << HONBUN アクセス回数/アクセス元IPアドレス `$cmd` HONBUN # 終了 exit ~~~~~~~~~~~~~~~~~~~~ ~~~~root実行結果メール本文~~~~ アクセス回数/アクセス元IPアドレス 34 192.168.0.XXX 12 84.XXX.181.XXX 8 201.XXX.235.XXX 6 187.XXX.19.XXX ~~~~~~~~~~~~~~~~~~~ ~~~~cron実行結果メール本文~~~~ アクセス回数/アクセス元IPアドレス ~~~~~~~~~~~~~~~~~~~ また、その他気になる点がありましたら、合わせてアドバイスいただければ幸いです。

  • キーが重複したレコードを無視してリストアする方法は?

    キーが重複したレコードがバックアップファイル内にあっても、それを無視して重複していないレコードだけをリストアする方法は無いでしょうか? 現在、osqlコマンドを用いてテーブルの既存データに追加する形でリストアするプログラムを作っているのですが、重複したレコードがあると処理が中断してしまうため、残った重複のないレコードを追加できずに困っています。 サーバはSQL Server 2000 使用言語はVB.NET になります。 ご教授宜しくお願い致します。

  • ピボットテーブルについてです

    ピボットテーブル内のデータで件数を数えたいのですがそれは可能でしょうか? 例えば画像のようなピボットで、「何月にA社では何種類売り上げがあったか」を出したいです。 できれば、集計行の上下どちらかに結果を出したいです。 元データを使っていろいろしてみましたが、重複するデータが多いので正しく出せません。ピボットのデータで…と思うのですが、可能でしたら方法を教えていただきたいです。 図々しいですが、もし他に方法があれば、教えていただきたいです。