해외에서 착신전환 서비스 이용하기 



1. 글로벌 유심을 사용해서 글로벌 유심 업체를 사용해 착신전환하는 방법 (돈 11,000원 드는 것 같음)



2. 내 핸드폰 번호를 다른 곳으로 받을 수 있도록 하기


내가 한 방법은 070 번호로 착신전환 되도록 했다. 

(내 상황은 전화를 하기 위해 070 무선 핸드폰만 챙겼을 뿐. 로밍을 신청하지 않았다. 해외 유심만 따로 사서 꼈을 뿐.. 그런데. 결제/뱅킹을 위해서 급하게 필요하게 되었다.)




나는 skt사용자로서 인터넷 tworld 에서 착신전환 서비스 신청을 할 수 있다.


실제 착신 전화번호를 입력하려면 리모콘 서비스를 신청하고 입력해야 한다.(약 월 1600원어치)


해외에 있으면 리모콘 서비스를 사용하는 게 쉽지 않다. (실제 착신 번호를 넣으려면 공인인증서를 사용해서 변경해야 한다.)114로 전화해서 리모콘 서비스 요청을 진행한 후..


011 200 8282 여기로 전화해서 착신 전화를 설정한다.


나의 경우는 070 핸드폰을 들고 가서 착신전환을 받았다. 대신 문자는 안된다.



저작자 표시
신고
Posted by 김용환 '김용환'


(SparkContext 코드에는 다양한 rdd 생성 방식을 지원한다. 그 중 공부하는 내용을 살펴본다)


전통적인 spark의 rdd 생성 방식은 parallelize 메소드를 사용하는 것이었다.


scala> val rdd1 = sc.parallelize(List(1,2,3))

rdd1: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[0] at parallelize at <console>:24



spark2에서 rdd 생성할 수 있는 makeRDD라는 메소드가 추가되었다.


scala> val rdd2 = sc.makeRDD(List(1,2,3))

rdd2: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[1] at makeRDD at <console>:24



게다가 파티셔닝도 되는 메소드이다.



scala> val rdd3 = sc.makeRDD(List((1, List("a", "b", "c")), (2, List("d", "e", "f"))))

rdd3: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[3] at makeRDD at <console>:24



scala> rdd3.preferredLocations(rdd3.partitions(1))

res6: Seq[String] = List(d, e, f)


scala> rdd3.preferredLocations(rdd3.partitions(0))

res7: Seq[String] = List(a, b, c)




api를 살펴보면, 다음과 같다. parallelize 함수를 내부적으로 쓴다.


  /** Distribute a local Scala collection to form an RDD.
   *
   * This method is identical to `parallelize`.
   * @param seq Scala collection to distribute
   * @param numSlices number of partitions to divide the collection into
   * @return RDD representing distributed collection
   */
  def makeRDD[T: ClassTag](
      seq: Seq[T],
      numSlices: Int = defaultParallelism): RDD[T] = withScope {
    parallelize(seq, numSlices)
  }

  /**
   * Distribute a local Scala collection to form an RDD, with one or more
   * location preferences (hostnames of Spark nodes) for each object.
   * Create a new partition for each collection item.
   * @param seq list of tuples of data and location preferences (hostnames of Spark nodes)
   * @return RDD representing data partitioned according to location preferences
   */
  def makeRDD[T: ClassTag](seq: Seq[(T, Seq[String])]): RDD[T] = withScope {
    assertNotStopped()
    val indexToPrefs = seq.zipWithIndex.map(t => (t._2, t._1._2)).toMap
    new ParallelCollectionRDD[T](this, seq.map(_._1), math.max(seq.size, 1), indexToPrefs)
  }



저작자 표시
신고
Posted by 김용환 '김용환'

cassandra3 모니터링을 telegraf로 사용하려 하는데. 

일부 중요 mbean 지표(/org.apache.cassandra.db:type=StorageService, /org.apache.cassandra.net:type=FailureDetector)를 telegraf로 보지 못한다. 


실제 telegraf-cassandra 모니터링 코드는 다음과 같다.


https://github.com/influxdata/telegraf/blob/master/plugins/inputs/cassandra/cassandra.go#L270-L280



if strings.HasPrefix(metric, "/java.lang:") {

m = newJavaMetric(serverTokens["host"], metric, acc)

} else if strings.HasPrefix(metric,

"/org.apache.cassandra.metrics:") {

m = newCassandraMetric(serverTokens["host"], metric, acc)

} else {

// unsupported metric type

acc.AddError(fmt.Errorf("E! Unsupported Cassandra metric [%s], skipping",

metric))

continue

}



telegraf 1.4에서 지원예정이라 한다.. (더 늦어질 지도.)


https://github.com/influxdata/telegraf/issues/2567









저작자 표시
신고
Posted by 김용환 '김용환'


티스토리 툴바